Wyszukaj w serwisie
Goniec.pl > Technologia > Regulacje są, problem zostaje? NASK o lukach w kontroli Groka i AI
Damian  Popilowski
Damian Popilowski 16.01.2026 12:26

Regulacje są, problem zostaje? NASK o lukach w kontroli Groka i AI

Regulacje są, problem zostaje? NASK o lukach w kontroli Groka i AI
Fot. IMAGO/ADRIANA ADIE/Imago Stock and People/East News

W ostatnich miesiącach negatywne incydenty związane z systemami AI wzbudziły dyskusje na temat skuteczności istniejących regulacji unijnych. Czy Digital Services Act (DSA) i AI Act wymagają skuteczniejszego egzekwowania oraz ewentualnego doprecyzowania w zakresie systemów AI? Zapytaliśmy ekspertów z NASK.

  • DSA już obowiązuje w pełni, ale jego egzekwowanie w przypadkach treści AI generowanych na platformach wymaga wzmocnienia, by lepiej chronić użytkowników przed szkodliwymi materiałami
  • Brak krajowej implementacji w Polsce może utrudniać egzekwowanie, choć regulacje UE stosuje się bezpośrednio; w najbliższym czasie pełne wejście AI Act w 2026 r. może wymagać doprecyzowań
  • AI Act wchodzi etapami, z kluczowymi przepisami dla generatywnego AI od 2025 roku

Obowiązujące regulacje unijne w zakresie treści cyfrowych

Digital Services Act (DSA) to unijna regulacja, która weszła w życie 16 listopada 2022 r., a w pełni stosowana jest od 17 lutego 2024 r. DSA nakłada obowiązki na platformy cyfrowe, w tym na te hostujące AI, w celu zapewnienia bezpieczeństwa i transparencji treści. Regulacja wymaga od dostawców usług pośrednich, takich jak platformy społecznościowe, moderacji treści, raportowania i mechanizmów zgłaszania nielegalnych materiałów.

W kontekście AI generujących treści, DSA podkreśla odpowiedzialność platform za treści hostowane, w tym generowane automatycznie. Na przykład, duże platformy (VLOP) muszą przeprowadzać oceny ryzyka systemowego i wdrażać środki łagodzące, co obejmuje algorytmy rekomendacyjne i reklamy. W 2025 r. Komisja Europejska nałożyła kary na platformy za naruszenia, co pokazuje aktywne egzekwowanie.

DSA jest stosowane bezpośrednio w UE, ale niektóre aspekty wymagają krajowej implementacji. W Polsce prezydent odmówił podpisania ustawy implementującej DSA, co może wpłynąć na lokalne egzekwowanie, choć regulacja UE pozostaje wiążąca. 

Regulacje są, problem zostaje? NASK o lukach w kontroli Groka i AI
Fot. Canva

Rola AI Act w regulacji systemów generujących treści

AI Act przyjęto w 2024 roku. Obowiązuje od 1 sierpnia 2024, ale przepisy wchodzą stopniowo.

Najważniejsze daty:

  • od 2 lutego 2025 – zakaz najgroźniejszych praktyk AI (np. manipulacja ludzkim zachowaniem),
  • od 2 sierpnia 2025 – specjalne obowiązki dla modeli ogólnego przeznaczenia (GPAI), w tym tych generujących teksty, obrazy czy dźwięki.

AI Act dzieli systemy sztucznej inteligencji na cztery poziomy ryzyka. Największy nacisk kładzie na przejrzystość i bezpieczeństwo.

W przypadku modeli generujących treści (jak np. Grok) dostawcy muszą m.in.:

  • opublikować podsumowanie, na jakich danych uczył się model,
  • zadbać, żeby AI nie łamało praw autorskich ani nie naruszało prywatności ludzi.

Niektóre zastosowania AI uznano za wysokie ryzyko (np. w szkołach, przy rekrutacji do pracy). One podlegają najsurowszym zasadom. Na początku 2026 roku większość przepisów wciąż wchodzi etapami. Całość ma działać od 2 sierpnia tego roku.

Ostatnie incydenty pokazują, że samo istnienie zasad to za mało – potrzebne jest mocniejsze egzekwowanie, np. częstsze kontrole i audyty.

NASK: Potrzebna jest stanowcza interwencja regulatora

Wypowiedzi w tym temacie udzieliła nam Ewelina Bartuzi-Trokielewicz, kierująca Zakładem Analiz Audiowizualnych i Systemów Biometrycznych w NASK, która nakreśliła priorytety w obecnej sytuacji na rynku AI:

- Ostatnie nadużycia pokazały, że istniejące przepisy muszą być efektywnie egzekwowane, a być może nawet uzupełnione o nowe, precyzyjniejsze rozwiązania odnoszące się do generatywnej AI. Digital Services Act (DSA), czyli unijne rozporządzenie o usługach cyfrowych, nakłada na platformy internetowe obowiązek szybkiego usuwania treści nielegalnych oraz przeciwdziałania dezinformacji. Więc w teorii wpisy Groka zawierające np. mowę nienawiści, zniesławienia czy pornograficzne deepfake’i powinny być bezzwłocznie moderowane. 

- A incydenty z Grokiem dowodzą, że platformy same z siebie nie gwarantują bezpieczeństwa i potrzebna jest stanowcza interwencja regulatora, by wymóc przestrzeganie standardów. Ddopiero po fali zgłoszeń i publicznym oburzeniu platforma X usunęła część najgorszych wpisów Groka i czasowo ograniczyła jego funkcje. Przypadek Groka pokazał, że bez takiego bata szkodliwe treści mogą pozostawać dostępne zbyt długo, wyrządzając szkody, a regulatorzy muszą być gotowi użyć istniejących przepisów (jak DSA) do powstrzymania „cyfrowej przemocy” i wymuszenia na firmach Big Tech odpowiedzialności za treści szerzone przez ich AI.

- Dyskusja wokół egzekwowania DSA ujawniła jednak pewne napięcia między bezpieczeństwem przestrzeni informacyjnej a wolnością wypowiedzi. Więc z jednej strony więc mamy potrzebę ochrony społeczeństwa przed szkodliwymi treściami AI, z drugiej obawę przed nadmierną cenzurą. Incydenty takie jak z Grokiem balansują na tej cienkiej granicy i pokazał potrzebę doprecyzowania procedur np. jasnego określenia, kto i na jakiej podstawie decyduje o blokowaniu treści generowanych przez AI oraz jak zapewnić kontrolę sądową nad takimi decyzjami, czyli jak egzekwować prawo w sposób przejrzysty i proporcjonalny, żeby nie budzić wątpliwości co do cenzury.
 

Obowiązek przejrzystości, odpowiedzialność twórców AI i zmiana prawa

Ewelina Bartuzi-Trokielewicz zabrała głos również w sprawie AI Act:

- Drugim ważnym elementem jest Akt o Sztucznej Inteligencji (AI Act), który ma uregulować rozwój i użycie systemów AI, zwłaszcza tzw. modeli generatywnych i stawia na mechanizmy nadzoru oraz transparentności. I chociaż AI Act nie jest jeszcze w pełni wdrożony, jego zapisy bezpośrednio odnoszą się do problemów ujawnionych przez Groka. Przede wszystkim, AI Act wprowadza obowiązki przejrzystości - dostawcy systemów AI generujących dane będą musieli zapewnić oznakowanie treści syntetycznych tak, by użytkownik mógł je rozpoznać. Wymóg ten ma utrudnić podsuwanie fałszywych treści jako autentycznych oraz ułatwić wykrywanie manipulacji. 

- Dodatkowo AI Act kładzie nacisk na odpowiedzialność twórców i operatorów systemów AI. Dostawcy takiego modelu jak Grok byliby zobowiązani do oceny ryzyka związanego z jego działaniem i wdrożenia środków zapobiegawczych przed wyrządzaniem szkód. Warto tu zaznaczyć, że AI Act nie reguluje bezpośrednio treści (od tego jest DSA), ale reguluje procesy techniczne i obowiązki dostawców na rynku AI. Incydenty z Grokiem pokazują, że takie mechanizmy są potrzebne, ale też, że mogą nie wystarczyć. 

- Nawet najlepsze oznaczenie deepfake’a nie powstrzyma złej woli użytkowników, dlatego pojawiają się głosy, by w przyszłości doprecyzować przepisy i np. wprowadzić wprost odpowiedzialność prawną za tworzenie i rozpowszechnianie niektórych treści AI (na podobnej zasadzie, jak karane jest np. rozpowszechnianie pornografii dziecięcej lub nawoływanie do nienawiści).
 

Źródło: Goniec.pl

Bądź na bieżąco - najważniejsze wiadomości z kraju i zagranicy
Google News Obserwuj w Google News
Wybór Redakcji
Dach
Do 31 stycznia i ani dnia dłużej. Polacy muszą to zgłosić albo narażą się na grzywnę
None
To już ten moment, w którym przestaliśmy panować nad AI? NASK: „Symbol kryzysu etycznego"
pracownicy
BUR zamiast RIS od 2026. Nowe zasady dostępu do publicznych pieniędzy
Kontrola przelewów BLIK w 2026 roku – analiza przepisów i mechanizmów skarbowych
BLIK pod lupą skarbówki. Te przelewy mogą zwrócić uwagę urzędników
Chiny, cyberataki
Miliony cyberataków każdego dnia. Chiny nasilają ataki na Tajwan
płyta indukcyjna
[QUIZ] Ile naprawdę wiesz o swoich rachunkach za prąd? Możesz się zdziwić