Wyszukaj w serwisie
Goniec.pl > Technologia > AI nie jest tym, czym straszą. Prof. Aleksandra Przegalińska z Harvardu studzi technologiczne lęki
Wojciech Mulik
Wojciech Mulik 07.01.2026 12:55

AI nie jest tym, czym straszą. Prof. Aleksandra Przegalińska z Harvardu studzi technologiczne lęki

AI nie jest tym, czym straszą. Prof. Aleksandra Przegalińska z Harvardu studzi technologiczne lęki
Prof. Aleksandra Przegalińska o AI Fot. Harvard University, Canva

Sztuczna inteligencja wdarła się do codzienności szybciej, niż zdążyliśmy ją oswoić. Dla jednych jest fascynującym narzędziem, dla innych – zapowiedzią utraty pracy, sensu twórczości i kontroli nad technologią. W rozmowie z Gońcem dr Aleksandra Przegalińska, badaczka nowych technologii związana m.in. z Harvardem, studzi emocje i przekonuje, że największym zagrożeniem nie są same algorytmy, lecz nasze wyobrażenia o nich.

Inteligencja bez ciała

Dzisiejsza sztuczna inteligencja radzi sobie znakomicie z analizą danych, obliczeniami i grami strategicznymi. W tych obszarach już dawno prześcignęła człowieka. Jednocześnie – jak podkreśla Przegalińska – pozostaje zaskakująco bezradna tam, gdzie dla ludzi oczywiste są ruch, percepcja i interakcja z otoczeniem.

Są takie wymiary inteligencji związane z ciałem i percepcją, w których my – ewolucyjnie – jesteśmy zdecydowanie lepiej przygotowani – mówi Gońcowi badaczka.

Paradoks współczesnej technologii polega na tym, że potrafi ona rozwiązywać abstrakcyjne problemy szybciej niż człowiek, ale wciąż ma trudność z prostymi czynnościami fizycznymi, które wykonuje nawet dziecko. Robot, który bezbłędnie przeanalizuje miliony rekordów w arkuszu danych, nadal potyka się o nierówny chodnik.

Lęk przed maszyną

Strach przed sztuczną inteligencją jest – zdaniem Przegalińskiej – w dużej mierze dziedzictwem popkultury. Wizje znane z kina science fiction sprawiają, że technologia wydaje się autonomicznym bytem, zdolnym do przejęcia kontroli nad światem. Tymczasem AI coraz częściej działa w tle, stając się tak oczywista jak elektryczność czy internet.

Wystarczy umieć rozmawiać, żeby skorzystać z ChatGPT – zauważa ekspertka.

Niepokój dotyczy przede wszystkim przyszłości pracy i relacji społecznych. Choć algorytmy już dziś pełnią rolę doradców, asystentów czy narzędzi terapeutycznych, nie są w stanie samodzielnie zastąpić człowieka w obszarach wymagających odpowiedzialności, empatii i rozumienia kontekstu.

Dlaczego młodzi mówią: „cringe”?

Jednym z bardziej zaskakujących zjawisk jest rosnący dystans młodego pokolenia wobec treści generowanych przez AI. Dla wielu nastolatków i młodych dorosłych sztuczna inteligencja stała się synonimem wtórności i braku autentyczności.

Algorytmy produkują obrazy, teksty i muzykę, które często są poprawne technicznie, ale pozbawione oryginalności. Młodzi dostrzegają, że AI nie tworzy niczego naprawdę nowego, lecz rekonfiguruje to, co już istnieje.

Sztuczna inteligencja nie jest innowacyjna. Proponuje rozwiązania i metody, które wcześniej już się gdzieś sprawdziły – podkreśla dr Przegalińska w rozmowie z Gońcem.

W mediach społecznościowych coraz silniejsza staje się tęsknota za autentycznością i doświadczeniami „analogowymi”. Symbolicznym gestem były akcje zrywania plakatów reklamujących „przyjaciela AI” w Nowym Jorku – wyraz sprzeciwu wobec prób zastąpienia relacji międzyludzkich technologią.

Czy bańka AI pęknie?

Równolegle narasta sceptycyzm finansowy. W USA coraz częściej mówi się o możliwym pęknięciu bańki inwestycyjnej wokół AI. Ogromne nakłady na centra danych i infrastrukturę nie zawsze przynoszą spektakularne zyski. W wielu organizacjach wdrożenia sztucznej inteligencji kończą się jedynie kosmetycznym wzrostem efektywności.

Coraz więcej ekspertów – w tym Jan LeCun – sugeruje, że dominacja modeli językowych może być etapem przejściowym. Przyszłość ma należeć do tzw. fizycznej sztucznej inteligencji, czyli robotyki działającej w realnym, chaotycznym świecie.

Robot, który musi radzić sobie z pogodą, przeszkodami i nieprzewidywalnością otoczenia, staje przed wyzwaniami znacznie trudniejszymi niż przewidywanie kolejnego słowa w zdaniu. To właśnie tu może dokonać się kolejny technologiczny przełom – zwłaszcza w opiece nad seniorami, logistyce czy medycynie.

Prawo, dezinformacja i odpowiedzialność

Rozwój AI rodzi poważne problemy prawne. Modele językowe były trenowane na ogromnych zbiorach tekstów i dzieł kultury, często bez zgody twórców. Stąd rosnąca liczba pozwów, w tym głośna sprawa wytoczona przez „New York Timesa”. W przyszłości konieczne mogą okazać się nowe systemy tantiem, które wynagrodzą autorów za wykorzystanie ich pracy.

Osobnym wyzwaniem są deepfake’i, coraz częściej wykorzystywane do manipulacji politycznej i dezinformacji. Państwa – jak podkreśla Przegalińska – muszą inwestować w narzędzia weryfikacji treści, bo bez nich demokracje staną się podatne na masową manipulację. Przykładem stanowczej reakcji były Włochy, które po użyciu deepfake’a z udziałem premier Giorgii Meloni zaostrzyły przepisy karne.

Maszyna bez woli

Mimo gwałtownego rozwoju sztuczna inteligencja pozostaje narzędziem statystycznym. Nie ma świadomości, intencji ani własnych celów. Jej błędy – tzw. halucynacje – nie wynikają z chęci oszustwa, lecz z matematycznej logiki przewidywania najbardziej prawdopodobnej odpowiedzi.

Żeby stać się „Terminatorem”, trzeba mieć wolę. To jest jeszcze poziom wyżej – tłumaczy Przegalińska.

Nawet ewentualne osiągnięcie tzw. sztucznej inteligencji ogólnej nie oznacza automatycznie narodzin świadomości. Paradoksalnie badania nad AI więcej mówią nam o ludzkim umyśle niż o maszynach – pokazują, jak złożone i wciąż słabo rozpoznane są procesy myślowe człowieka.

Człowiek w centrum

Największym zagrożeniem nie jest bunt maszyn, lecz utrata ludzkiej ekspertyzy. Bezrefleksyjne delegowanie zadań algorytmom może prowadzić do zaniku kompetencji, które budowaliśmy latami. Dlatego – jak przekonuje Przegalińska – kluczowe jest krytyczne myślenie i zachowanie sprawczości.

Sztuczna inteligencja może być potężnym narzędziem, ale tylko wtedy, gdy pozostanie pod ludzką kontrolą. To od decyzji podejmowanych dziś przez państwa, firmy i użytkowników zależy, czy stanie się wsparciem dla kreatywności i rozwoju, czy jedynie generatorem cyfrowego szumu.

Źródło: Goniec

Bądź na bieżąco - najważniejsze wiadomości z kraju i zagranicy
Google News Obserwuj w Google News
Wybór Redakcji
Dach
Do 31 stycznia i ani dnia dłużej. Polacy muszą to zgłosić albo narażą się na grzywnę
przemoc wobec dzieci
Instytucje wiedziały i milczały. To działo się dzieciom przez lata
Nawrocki Karol
"Polityczny noworysz”. Mocne słowa politolog o Nawrockim
prof. agnieszka szuster-ciesielska, grypa
To nie jest "zwykła grypa”. Prof. Szuster-Ciesielska ostrzega przed falą ciężkich powikłań
Karol Nawrocki
Nawrocki straszy Zachodem. Prof. Markowski: "Buduje polityczną schizofrenię"
płyta indukcyjna
[QUIZ] Ile naprawdę wiesz o swoich rachunkach za prąd? Możesz się zdziwić