Meta planuje wdrożyć nowe przepisy dotyczące treści generowanych przez sztuczną inteligencję na swoich platformach, takich jak Facebook, Instagram i wątki, jak podano we wpisie na blogu firmy 6 stycznia. Środki te mają na celu rozwiązanie rosnących obaw związanych z autentycznością i przejrzystością treści cyfrowych.
Zgodnie z zapowiedzią, wszelkie treści rozpoznane jako wygenerowane przez sztuczną inteligencję, czy to za pomocą metadanych, czy też celowego znaku wodnego, będą wyraźnie oznaczone. Co więcej, użytkownicy będą mieli możliwość oznaczania nieoznakowanych treści, co do których istnieje podejrzenie, że są generowane przez sztuczną inteligencję, umożliwiając społeczności udział w moderowaniu treści.
Inicjatywa ta odzwierciedla ewoluujące podejście firmy Meta do moderowania treści, przypominające jej wcześniejsze praktyki przed pojawieniem się treści generowanych przez sztuczną inteligencję. Umożliwiając użytkownikom zgłaszanie naruszeń i zapewniając przejrzystość w oznaczaniu treści, Meta dąży do utrzymania integralności swoich platform.
Wybiegając w przyszłość do 2024 r., Meta wykorzystuje swoją ogromną bazę użytkowników, aby zwiększyć możliwości moderowania treści. Umożliwiając użytkownikom oznaczanie treści generowanych przez sztuczną inteligencję, Meta wykorzystuje siłę crowdsourcingu, aby sprostać pojawiającym się wyzwaniom związanym z autentycznością treści cyfrowych.
Według wpisu na blogu:
“Będziemy wymagać od ludzi korzystania z tego narzędzia do ujawniania i oznaczania, gdy publikują organiczne treści z fotorealistycznym wideo lub realistycznie brzmiącym dźwiękiem, który został stworzony lub zmieniony cyfrowo, a jeśli tego nie zrobią, możemy zastosować kary”.
Poprawa wykrywania treści generowanych przez sztuczną inteligencję
Twórcy korzystający z platform Meta będą musieli oznaczać swoje treści jako wygenerowane przez sztuczną inteligencję, aby uniknąć potencjalnych konsekwencji. Podczas gdy Meta wdraża znak wodny i etykietowanie treści generowanych za pomocą swoich narzędzi, uznaje ograniczenia w wykrywaniu treści audio i wideo generowanych przez sztuczną inteligencję na dużą skalę.
Aby rozwiązać ten problem, Meta współpracuje z partnerami branżowymi, takimi jak Google, OpenAI, Microsoft, Adobe, Midjourney i Shutterstock. Wspólnie starają się opracować metody wykrywania niewidocznych znaków wodnych i poprawy weryfikacji autentyczności treści.
Meta uznaje jednak obecne ograniczenia w wykrywaniu treści audio i wideo generowanych przez sztuczną inteligencję, w tym technologii deepfake, na dużą skalę. Podkreśla to ciągłe wysiłki niezbędne do zajęcia się ewoluującym krajobrazem autentyczności i integralności treści cyfrowych.