

Tuż po tym, jak została skrytykowana za “niespójną politykę dotyczącą fałszywych filmów”, Meta zaczęła etykietowanie obrazów generowanych przez sztuczną inteligencję na swoich platformach. Obejmuje to Facebook, Instagram i Threads, a także będą oznaczać obrazy wyprodukowane przez firmy zewnętrzne, takie jak OpenAI, Google, Midjourney, ale także Własny generator obrazów AI firmy Meta.
Meta ogłosiła we wtorek, że rozpocznie etykietowanie treści AI. Nick Clegg, prezes ds. globalnych firmy Meta, przedstawił podejście firmy w komunikacie. wpisie na blogu. Podkreślił znaczenie tej inicjatywy w roku naznaczonym ważnymi wyborami na całym świecie. “Przyjmujemy to podejście przez cały następny rok, podczas którego na całym świecie odbędzie się wiele ważnych wyborów” – pisze Clegg. “W tym czasie spodziewamy się dowiedzieć znacznie więcej o tym, jak ludzie tworzą i udostępniają treści AI, jaki rodzaj przejrzystości ludzie uważają za najbardziej wartościowy i jak ewoluują te technologie. To, czego się dowiemy, wpłynie na najlepsze praktyki branżowe i nasze własne podejście w przyszłości”.
Gdy ludzie tworzą fotorealistyczne obrazy za pomocą funkcji Meta AI, platforma umieszcza widoczne znaczniki na obrazach oraz zarówno niewidoczne znaki wodne, jak i metadane osadzone w plikach graficznych. “Używanie zarówno niewidocznych znaków wodnych, jak i metadanych w ten sposób poprawia zarówno odporność tych niewidocznych znaczników, jak i pomaga innym platformom je zidentyfikować” – zauważa Clegg. “Jest to ważna część odpowiedzialnego podejścia, które przyjmujemy do tworzenia generatywnych funkcji sztucznej inteligencji”.
Ale Meta planuje teraz oznaczać treści tworzone przez usługi zewnętrzne. Firma tworzy zaawansowane narzędzia, które mogą wykrywać ukryte znaczniki w treści, takie jak informacje generowane przez sztuczną inteligencję w standardach technicznych C2PA i IPTC. System ten będzie oznaczać obrazy od gigantów technologicznych takich jak Google, OpenAI, Microsoft, Adobe, Midjourney i Shutterstock, którzy wprowadzają metadane do swoich narzędzi do tworzenia obrazów.
A co z innymi treściami AI?
Podczas gdy niektóre firmy osadzają sygnały w swoich obrazach generowanych przez sztuczną inteligencję, Nick Clegg z firmy Meta przyznaje, że podobne postępy w narzędziach sztucznej inteligencji do produkcji audio i wideo są opóźnione. Oznacza to, że Meta nie może obecnie wykrywać i oznaczać treści audio i wideo generowanych przez sztuczną inteligencję od innych firm na tym samym poziomie, co w przypadku obrazów. “W miarę postępów branży w kierunku integracji tych możliwości, Meta wdraża funkcję, która pozwala użytkownikom ujawniać, kiedy udostępniają treści wideo lub audio generowane przez sztuczną inteligencję. Umożliwi to Meta dołączenie etykiety do takich treści” – pisze Clegg.
W celu promowania przejrzystości i odpowiedzialności, Meta nałożyła na użytkowników obowiązek ujawniania i oznaczania sztucznej inteligencji i treści zmanipulowanych cyfrowo. Firma może ich ukarać, jeśli nie zastosują się do tej polityki. Co więcej, Meta ma prawo zastosować bardziej widoczną etykietę do wszelkich cyfrowo stworzonych lub zmienionych treści, takich jak obrazy, filmy lub dźwięk, jeśli okaże się, że takie treści stwarzają wysokie ryzyko wprowadzenia opinii publicznej w błąd w ważnych kwestiach. Takie podejście ma na celu zapewnienie użytkownikom większej ilości informacji i kontekstu.
“Podejście to reprezentuje najnowocześniejsze możliwości techniczne. Ale nie jest jeszcze możliwe zidentyfikowanie wszystkich treści generowanych przez sztuczną inteligencję i istnieją sposoby, w jakie ludzie mogą usunąć niewidoczne znaczniki. Korzystamy więc z szeregu opcji. Ciężko pracujemy nad opracowaniem klasyfikatorów, które pomogą nam automatycznie wykrywać treści generowane przez sztuczną inteligencję, nawet jeśli nie zawierają one niewidocznych znaczników. Jednocześnie szukamy sposobów na utrudnienie usuwania lub zmieniania niewidocznych znaków wodnych. Na przykład, laboratorium FAIR Meta’s AI Research podzieliło się niedawno badaniami nad opracowywaną przez nas technologią niewidzialnego znaku wodnego o nazwie Stable Signature. Integruje ona mechanizm znaku wodnego bezpośrednio z procesem generowania obrazu dla niektórych typów generatorów obrazu, co może być cenne dla modeli open source, aby znak wodny nie mógł zostać wyłączony”.
Ogłoszenie to pojawiło się po tym, jak krytyce ze strony niezależnej rady nadzorczej Meta dotyczącej polityki firmy w zakresie wprowadzających w błąd zmienionych filmów. Clegg zgodził się z sugestią rady, że oznaczanie takich treści może być bardziej skuteczne niż ich usuwanie. Uważa on, że nowa inicjatywa etykietowania jest krokiem w kierunku realizacji zaleceń rady i nadania impetu podobnym działaniom w całej branży.
[via Ars Technica; image credit: Meta]