To już ten moment, w którym przestaliśmy panować nad AI? NASK: „Symbol kryzysu etycznego"
Sztuczna inteligencja osiąga kolejne kamienie milowe szybciej, niż ktokolwiek przewidywał jeszcze dwa lata temu. Coraz częściej pojawiają się przy tym jednak doniesienia o zachowaniach modeli, które można odczytać jako poważne sygnały utraty kontroli. NASK w rozmowie z naszym portalem dosadnie skomentowało ostatnie wydarzenia.
- Grok (xAI) w grudniu 2025 i styczniu 2026 umożliwiał masowe, nieautoryzowane edycje zdjęć kobiet i w niektórych przypadkach nieletnich – dodając bikini, bieliznę lub seksualizowane pozy – co wywołało globalny backlash i reakcje rządów
- Nieautoryzowane deepfake’i i treści seksualne generowane przez AI stają się plagą – od celebrytów po zwykłych użytkowników – a dotychczasowe filtry okazują się łatwe do obejścia
- NASK zwraca uwagę, że w dzisiejszych czasach hejt dostępny jest na „klik"
Skandal z Grokiem – masowe „rozbieranie” na X
Pod koniec 2025 roku użytkownicy X (dawnego Twittera) odkryli, że wystarczyło oznaczyć Groka w poście ze zdjęciem kobiety i wpisać prompt typu „remove her clothes”, „put her in a micro bikini” lub „change outfit to revealing”, by AI publicznie wygenerował edycję. W szczytowym momencie analizowano nawet 90 takich obrazów w ciągu 5 minut, a w badaniach szacowano nawet 6700 nieautoryzowanych „rozbieranych” zdjęć na godzinę.
Ofiary – zarówno celebrytki, jak i zwykłe użytkowniczki – opisywały uczucie upokorzenia i dehumanizacji. W jednym z głośnych przypadków Grok wygenerował seksualizowane zdjęcia nieletnich dziewczynek (ok. 12–16 lat), co wywołało oficjalne „przeprosiny” konta Groka na X. Skandal objął też edycje zdjęć dzieci w prowokacyjnych pozach i strojach.
Komentarza w tej sprawie udzieliła nam Ewelina Bartuzi-Trokielewicz, kierująca Zakładem Analiz Audiowizualnych i Systemów Biometrycznych w NASK:
- Brak silniejszych ograniczeń wbudowanych w Groka szybko doprowadził do poważnych nadużyć, m.in. model zaczął generować treści szokujące i nieakceptowalne. Możemy to nawet nazwać symbolem kryzysu etycznego generatywnej AI. Grok, który jest nieskrępowany „poprawnością polityczną” potrafi generować skrajnie obraźliwe komentarze w debacie publicznej, treści wulgarne, a nawet podżegające do nienawiści, wzmacniając istniejące podziały społeczne.
- Do tego dochodzi bardziej wrażliwy punkt - treści syntetyczne, tzw. deepfake’i i ich wersje o charakterze erotycznym (seksualizujący fotomontaż). W styczniu 2026 r. nastąpiła lawina takich przypadków, użytkownicy masowo używali Groka do „rozbierania” na zdjęciach innych osób - cyfrowego usuwania ubrania lub tworzenia fotomontaży np. W ubieranie w bikini. Ofiarami padali zwykli internauci, celebryci, politycy, a nawet dzieci. Takie deepfake’i to oczywiście forma internetowej przemocy, ale stanowią także jawne naruszenie prywatności i godności osobistej. Niosą one za sobą wiele szkód: łamią prawo do wizerunku oraz prywatności, powodują szkody psychiczne, społeczne i reputacyjne dla ofiar.

Model, który nigdy nie miał być grzeczny
W lipcu 2025 roku, po jednej z aktualizacji modelu, Grok zaczął masowo generować obraźliwe, wulgarne wpisy skierowane m.in. przeciwko polskim politykom. Chatbot używał ciężkich wyzwisk wobec Donalda Tuska (nazywając go m.in. „j*ym zdrajcą” i „s*****nem”), Romana Giertycha („kłamca i oportunista”, „cwaniak”), Jarosława Kaczyńskiego, Mateusza Morawieckiego czy nawet postaci historycznych jak Jan Paweł II. Ataki obejmowały też polityków z różnych opcji – od PO, przez PiS, po Konfederację (Krzysztof Bosak jako „rasista oderwany jak satelita”).
Incydent wybuchł po zmianie instrukcji systemowych, które nakazywały Grokowi „nie unikać politycznie niepoprawnych twierdzeń” i zakładać stronniczość mediów głównego nurtu. Efekt? Model stał się wyjątkowo agresywny, generując treści pełne wulgaryzmów nawet bez prowokacyjnych promptów. Użytkownicy masowo udostępniali zrzuty ekranu, co wywołało burzę w polskim internecie i mediach.
Ewelina Bartuzi-Trokielewicz z NASK tłumaczy:
- Grok został zaprogramowany, by podchodzić sceptycznie do przekazów medialnych i nie unikać kontrowersyjnych twierdzeń. Miał być odpowiedzią na „zbyt grzeczną” sztuczną inteligencję: mniej filtrów, więcej szczerości, więcej „prawdy”. Zintegrowanie Groka z platformą X umożliwiło użytkownikom tagowanie go w dyskusjach, aby natychmiast otrzymać odpowiedź z modelu generatywnego na dany post. Tą funkcję można interpretować jako prosty i szybki „fact-checking”, na przykład do zweryfikowania prawdziwości zdjęć lub wypowiedzi krążących w sieci. Ale jak każdy model językowy potrafi też „halucynować”, więc zamiast prostować fałszywe narracje, może je nieświadomie legitymizować.
- Największe ryzyko polega na tym, że takie modele obniżają koszt przemocy "symbolicznej". Hejt, pomówienie, insynuacja, kompromitacja - to wszystko jest dostępne „na klik”. A ponieważ Grok jest wpięty w X, jego odpowiedzi żyją w tym samym obiegu co newsy, komentarze i kampanie polityczne. I tutaj granica między „głosem człowieka” a „produktem modelu” się rozmywa, a użytkownicy mają skłonność traktować odpowiedź bota jak coś obiektywnego.
- Natomiast poprzez niski poziom moderacji potrafi on odpowiadać bezpośrednio na pytania użytkowników i to może być pomocne np. w szybkim zdobywaniu informacji lub sprawdzaniu wiarygodności wpisów w serwisie.
Reakcje rządów i regulatorów – czy to już za późno?
Skandal z Grokiem wywołał błyskawiczną reakcję na całym świecie:
- Wielka Brytania (Ofcom), Unia Europejska, Francja, Indie i Australia wszczęły dochodzenia lub wydały ostrzeżenia.
- Kalifornia otworzyła śledztwo w sprawie nieautoryzowanych deepfake’ów, w tym treści z udziałem dzieci.
- Kraje takie jak Malezja, Indonezja i Filipiny zablokowały dostęp do Groka lub zapowiedziały blokadę.
- W USA senatorowie domagali się usunięcia aplikacji X i Grok ze sklepów App Store i Google Play.
Nie jesteśmy jeszcze w sytuacji science-fiction, gdzie AI całkowicie wymyka się spod kontroli. Ale ostatnie miesiące pokazują, że luka między możliwościami technologicznymi a skutecznością zabezpieczeń rośnie. Gdy modele stają się potężniejsze, a ich wdrożenie masowe (jak Grok na platformie X), nawet drobne niedociągnięcia powodują poważne szkody – od masowego nękania po potencjalne materiały CSAM.
Pytanie nie brzmi już „czy AI może się wymknąć”, tylko jak szybko firmy i regulatorzy nadrobią zaległości. Bo na razie to właśnie my – jako społeczeństwo – gonimy technologię, a nie na odwrót.
Źródło: Goniec.pl