Wyszukaj w serwisie
Goniec.pl > Technologia > To już ten moment, w którym przestaliśmy panować nad AI? NASK: „Symbol kryzysu etycznego"
Damian  Popilowski
Damian Popilowski 15.01.2026 15:51

To już ten moment, w którym przestaliśmy panować nad AI? NASK: „Symbol kryzysu etycznego"

To już ten moment, w którym przestaliśmy panować nad AI? NASK: „Symbol kryzysu etycznego"
Siedziba NASK, fot. Wojciech Olkusnik/East News

Sztuczna inteligencja osiąga kolejne kamienie milowe szybciej, niż ktokolwiek przewidywał jeszcze dwa lata temu. Coraz częściej pojawiają się przy tym jednak doniesienia o zachowaniach modeli, które można odczytać jako poważne sygnały utraty kontroli. NASK w rozmowie z naszym portalem dosadnie skomentowało ostatnie wydarzenia. 

  • Grok (xAI) w grudniu 2025 i styczniu 2026 umożliwiał masowe, nieautoryzowane edycje zdjęć kobiet i w niektórych przypadkach nieletnich – dodając bikini, bieliznę lub seksualizowane pozy – co wywołało globalny backlash i reakcje rządów
  • Nieautoryzowane deepfake’i i treści seksualne generowane przez AI stają się plagą – od celebrytów po zwykłych użytkowników – a dotychczasowe filtry okazują się łatwe do obejścia
  • NASK zwraca uwagę, że w dzisiejszych czasach hejt dostępny jest na „klik"

Skandal z Grokiem – masowe „rozbieranie” na X

Pod koniec 2025 roku użytkownicy X (dawnego Twittera) odkryli, że wystarczyło oznaczyć Groka w poście ze zdjęciem kobiety i wpisać prompt typu „remove her clothes”, „put her in a micro bikini” lub „change outfit to revealing”, by AI publicznie wygenerował edycję. W szczytowym momencie analizowano nawet 90 takich obrazów w ciągu 5 minut, a w badaniach szacowano nawet 6700 nieautoryzowanych „rozbieranych” zdjęć na godzinę.

Ofiary – zarówno celebrytki, jak i zwykłe użytkowniczki – opisywały uczucie upokorzenia i dehumanizacji. W jednym z głośnych przypadków Grok wygenerował seksualizowane zdjęcia nieletnich dziewczynek (ok. 12–16 lat), co wywołało oficjalne „przeprosiny” konta Groka na X. Skandal objął też edycje zdjęć dzieci w prowokacyjnych pozach i strojach. 

Komentarza w tej sprawie udzieliła nam Ewelina Bartuzi-Trokielewicz, kierująca Zakładem Analiz Audiowizualnych i Systemów Biometrycznych w NASK:

- Brak silniejszych ograniczeń wbudowanych w Groka szybko doprowadził do poważnych nadużyć, m.in. model zaczął generować treści szokujące i nieakceptowalne. Możemy to nawet nazwać symbolem kryzysu etycznego generatywnej AI. Grok, który jest nieskrępowany „poprawnością polityczną”  potrafi generować skrajnie obraźliwe komentarze w debacie publicznej, treści wulgarne, a nawet podżegające do nienawiści, wzmacniając istniejące podziały społeczne.

- Do tego dochodzi bardziej wrażliwy punkt - treści syntetyczne, tzw. deepfake’i i ich wersje o charakterze erotycznym (seksualizujący fotomontaż). W styczniu 2026 r. nastąpiła lawina takich przypadków, użytkownicy masowo używali Groka do „rozbierania” na zdjęciach innych osób - cyfrowego usuwania ubrania lub tworzenia fotomontaży np. W ubieranie w bikini. Ofiarami padali zwykli internauci, celebryci, politycy, a nawet dzieci. Takie deepfake’i to oczywiście forma internetowej przemocy, ale stanowią także jawne naruszenie prywatności i godności osobistej. Niosą one za sobą wiele szkód: łamią prawo do wizerunku oraz prywatności, powodują szkody psychiczne, społeczne i reputacyjne dla ofiar.
 

To już ten moment, w którym przestaliśmy panować nad AI? NASK: „Symbol kryzysu etycznego"
Fot. Poike/Getty Images/CanvaPro

Model, który nigdy nie miał być grzeczny

W lipcu 2025 roku, po jednej z aktualizacji modelu, Grok zaczął masowo generować obraźliwe, wulgarne wpisy skierowane m.in. przeciwko polskim politykom. Chatbot używał ciężkich wyzwisk wobec Donalda Tuska (nazywając go m.in. „j*ym zdrajcą” i „s*****nem”), Romana Giertycha („kłamca i oportunista”, „cwaniak”), Jarosława Kaczyńskiego, Mateusza Morawieckiego czy nawet postaci historycznych jak Jan Paweł II. Ataki obejmowały też polityków z różnych opcji – od PO, przez PiS, po Konfederację (Krzysztof Bosak jako „rasista oderwany jak satelita”).

Incydent wybuchł po zmianie instrukcji systemowych, które nakazywały Grokowi „nie unikać politycznie niepoprawnych twierdzeń” i zakładać stronniczość mediów głównego nurtu. Efekt? Model stał się wyjątkowo agresywny, generując treści pełne wulgaryzmów nawet bez prowokacyjnych promptów. Użytkownicy masowo udostępniali zrzuty ekranu, co wywołało burzę w polskim internecie i mediach.

Ewelina Bartuzi-Trokielewicz z NASK tłumaczy: 

- Grok został zaprogramowany, by podchodzić sceptycznie do przekazów medialnych i nie unikać kontrowersyjnych twierdzeń. Miał być odpowiedzią na „zbyt grzeczną” sztuczną inteligencję: mniej filtrów, więcej szczerości, więcej „prawdy”. Zintegrowanie Groka z platformą X umożliwiło użytkownikom tagowanie go w dyskusjach, aby natychmiast otrzymać odpowiedź z modelu generatywnego na dany post. Tą funkcję można interpretować jako prosty i szybki „fact-checking”, na przykład do zweryfikowania prawdziwości zdjęć lub wypowiedzi krążących w sieci.  Ale jak każdy model językowy potrafi też „halucynować”, więc zamiast prostować fałszywe narracje, może je nieświadomie legitymizować.

- Największe ryzyko polega na tym, że takie modele obniżają koszt przemocy "symbolicznej". Hejt, pomówienie, insynuacja, kompromitacja - to wszystko jest dostępne „na klik”. A ponieważ Grok jest wpięty w X, jego odpowiedzi żyją w tym samym obiegu co newsy, komentarze i kampanie polityczne. I tutaj granica między „głosem człowieka” a „produktem modelu” się rozmywa, a użytkownicy mają skłonność traktować odpowiedź bota jak coś obiektywnego.

- Natomiast poprzez niski poziom moderacji potrafi on odpowiadać bezpośrednio na pytania użytkowników i to może być pomocne np. w szybkim zdobywaniu informacji lub sprawdzaniu wiarygodności wpisów w serwisie.
 

Reakcje rządów i regulatorów – czy to już za późno?

Skandal z Grokiem wywołał błyskawiczną reakcję na całym świecie:

  • Wielka Brytania (Ofcom), Unia Europejska, Francja, Indie i Australia wszczęły dochodzenia lub wydały ostrzeżenia.
  • Kalifornia otworzyła śledztwo w sprawie nieautoryzowanych deepfake’ów, w tym treści z udziałem dzieci.
  • Kraje takie jak Malezja, Indonezja i Filipiny zablokowały dostęp do Groka lub zapowiedziały blokadę.
  • W USA senatorowie domagali się usunięcia aplikacji X i Grok ze sklepów App Store i Google Play.

Nie jesteśmy jeszcze w sytuacji science-fiction, gdzie AI całkowicie wymyka się spod kontroli. Ale ostatnie miesiące pokazują, że luka między możliwościami technologicznymi a skutecznością zabezpieczeń rośnie. Gdy modele stają się potężniejsze, a ich wdrożenie masowe (jak Grok na platformie X), nawet drobne niedociągnięcia powodują poważne szkody – od masowego nękania po potencjalne materiały CSAM.

Pytanie nie brzmi już „czy AI może się wymknąć”, tylko jak szybko firmy i regulatorzy nadrobią zaległości. Bo na razie to właśnie my – jako społeczeństwo – gonimy technologię, a nie na odwrót.

Źródło: Goniec.pl

Bądź na bieżąco - najważniejsze wiadomości z kraju i zagranicy
Google News Obserwuj w Google News
Wybór Redakcji
Dach
Do 31 stycznia i ani dnia dłużej. Polacy muszą to zgłosić albo narażą się na grzywnę
Gawkowski, cyberatak
Tak miał wyglądać atak na Polskę. Minister Cyfryzacji ujawnił szokujące szczegóły
None
„Nieudolna władza, niedopracowane narzędzia". Poseł PiS broni weta Nawrockiego
Kontrola przelewów BLIK w 2026 roku – analiza przepisów i mechanizmów skarbowych
BLIK pod lupą skarbówki. Te przelewy mogą zwrócić uwagę urzędników
Fakty, Nawrocki
Była 19:05, kiedy w "Faktach" zaczęli mówić o Nawrockim. Padły mocne słowa
płyta indukcyjna
[QUIZ] Ile naprawdę wiesz o swoich rachunkach za prąd? Możesz się zdziwić