Skandal z udziałem Elona Muska. Chodzi o znaną aktorkę
Elon Musk po raz kolejny udowodnił, że potrafi skupić na sobie uwagę całego świata jednym kliknięciem myszki. Właściciel platformy X (dawniej Twitter) udostępnił nagranie przedstawiające popularną aktorkę Sydney Sweeney, znanej z serialu „Euforia”. Nie byłoby w tym nic nadzwyczajnego, gdyby nie fakt, że wideo w całości wygenerowała sztuczna inteligencja. Miliarder, opatrując materiał entuzjastycznym komentarzem, nieświadomie lub celowo otworzył puszkę Pandory w dyskusji o etyce cyfrowej, prawach autorskich i przyszłości Hollywood.
- Musk wykorzystuje popularność aktorki do demonstracji siły swojej technologii.
- Technologia służy tu nie tylko rozrywce.
- Prawo nie nadąża za postępem technologicznym.
Eksperyment czy wyrachowana manipulacja?
Udostępniony przez Muska materiał przedstawia Sydney Sweeney w scenerii i stroju, w który nie ma nic wspólnego z rzeczywistością. Dla przeciętnego użytkownika granica między tym co prawdziwe, a wytworem algorytmu staje się niemal niewidoczna. Musk, będący właścicielem własnego modelu AI o nazwie Grok, wykorzystuje popularność aktorki do demonstracji siły swojej technologii. To, co dla miliardera jest imponującym pokazem możliwości inżynieryjnych, dla branży filmowej stanowi sygnał alarmowy. Aktorzy od miesięcy strajkowali, m.in. przeciwko cyfrowym sobowtórom, a ruch Muska pokazuje, że ich obawy były w pełni uzasadnione.

Sydney Sweeney jako narzędzie ideologiczne
Wybór Sydney Sweeney nie był przypadkowy. Aktorka w ostatnich miesiącach stała się nieoficjalną ikoną konserwatywnej części internetu, która widzi w niej ucieleśnienie „tradycyjnej kobiecości”, stojącej w opozycji do współczesnych trendów inkluzywności w Hollywood. Musk, udostępniając wygenerowane wideo, wpisuje się w tę narrację. Technologia służy tu nie tylko rozrywce, ale staje się nośnikiem konkretnego przekazu światopoglądowego. Miliarder sugeruje, że AI może „naprawić” kulturę, tworząc treści, których rzekomo brakuje w mainstreamowych mediach.
Mroczna strona braku regulacji
Najważniejszym aspektem tej sprawy jest kwestia zgody. W erze przed sztuczną inteligencją wykorzystanie wizerunku znanej osoby do reklamy lub promocji idei wymagało skomplikowanych umów i wysokich honorariów. Dzisiaj wystarczy odpowiedni algorytm.
Ekspertka ds. Sztucznej Inteligencji w NASK Alicja Martinek w rozmowie dla portalu Goniec.pl wyjaśniła:
-Przypadek filmu wygenerowanego przez najnowszy model Grok jest bardzo ciekawy. 10-cio sekundowy klip wiernie przedstawia wizerunek amerykańskiej aktorki Sydney Sweeney. Jest jednak jedno „ale”. Jej imię i nazwisko nie pojawiają się ani razu w instrukcji (prompcie) napisanej, aby stworzyć dany filmik. To świadczy o tym, że dane aktorki były używane w zbiorze treningowym modelu. Dodatkowo, ze względu na jej zawód i obecność w mediach, trzeba zaznaczyć, że ilość dostępnych danych jest znacznie większa niż dla typowego „Kowalskiego”.
Sytuacja ta pokazuje ogromną lukę w prawie, które nie nadąża za postępem technologicznym. Choć wizerunek Sweeney jest chroniony, egzekwowanie praw w przypadku treści generowanych przez AI na platformie należącej do osoby je udostępniającej, jest prawnym koszmarem. Eksperci ostrzegają, że jeśli tak postępuje jedna z najbardziej wpływowych osób na świecie, daje to przyzwolenie na podobne działania milionom użytkowników.
Jak się bronić?
Ochrona wizerunku i danych w dobie AI wymaga nowej dyscypliny. Kluczowa jest cyberhigiena. Ekspertka ds. Sztucznej Inteligencji w NASK Alicja Martinek w rozmowie dla portalu Goniec.pl wyjaśniła:
-Bezpieczeństwo naszych danych zależy od serwisów, gdzie je przechowujemy. Warto sprawić czy dany portal (chociażby Grok) nie ma zaznaczonej opcji o używaniu naszych danych do ulepszania serwisu. Za tym najczęściej stoi zgoda na wykorzystywanie wizerunku do dalszego treningu modelu. Istnieje zestaw podstawowych zasad cyberhigieny i ochrony swoich danych osobowych:
- Nigdy nie wykorzystuj danych drugiej osoby bez jej zgody. Nawet jeżeli to ma być zabawny prezent na urodziny.
- Raz stworzony i ściągnięty materiał warto usunąć ze strony, która go generowała.
- Zanonimizuj dane – np. gdy prosisz o napisanie listu czy wniosku, nie podawaj informacji o adresie czy imieniu i nazwisku.
Najlepiej jednak, po prostu nie udostępniać informacji na swój temat. Konsekwencje dla cyberbezpieczeństwa użytkowników portali z interaktywnymi czatami i modelami generatywnej sztucznej inteligencji mogą być niebezpieczne. Serwisy te często gromadzą historię czatów i wysłanych plików. Dane takie mogą być wykorzystywane do dalszego trenowania modelu, często pod przykrywką „lepszego dopasowania do potrzeb użytkownika”. Administratorzy danych zapewniają, że są one bezpieczne. Jednak w sytuacji, gdy nastąpi wyciek informacji, może zaistnieć sytuacja, w której będzie możliwe połączenie np. zdjęcia czyjejś twarzy, imienia i nazwiska z wynikami badań, jeśli ktoś pytał czat o ich interpretacje. To tylko jeden przykład, ale możliwości istniejących zagrożeń ograniczone są tylko tym czym ludzie dzielą się z interaktywnymi czatami.
Należy więc pamiętać, że sztuczna inteligencja nie zna pojęcia tajemnicy lekarskiej czy dyskrecji. Traktowanie bota jak powiernika to błąd, bo w cyfrowym świecie raz wpisane dane nie giną, lecz stają się paliwem dla algorytmów, nad którymi nikt nie ma pełnej kontroli.
Co dalej z platformą X?
Zachowanie Muska rzuca nowe światło na przyszłość serwisu X. Platforma ta coraz wyraźniej odchodzi od roli neutralnego forum dyskusyjnego na rzecz poligonu doświadczalnego dla technologii Grok. Udostępnianie deepfake'ów przez samego właściciela serwisu podważa zaufanie do wiarygodności treści tam publikowanych. Może to doprowadzić do sytuacji, w której X stanie się przestrzenią zdominowaną przez syntetyczne media, gdzie odróżnienie prawdy od fikcji będzie niemożliwe. Przypadek Sydney Sweeney to dopiero początek ery, w której nasza percepcja rzeczywistości będzie nieustannie kwestionowana przez algorytmy.
źródło: eWeek, NASK