W świecie, gdzie sztuczna inteligencja pędzi jak nieokiełznany pociąg, dylematy etyczne i zagrożenia bezpieczeństwa przestają być akademickimi rozważaniami, a stają się namacalną rzeczywistością. OpenAI, gigant stojący za ChatGPT, zdaje się wreszcie budzić, szukając kogoś, kto poskromi te rosnące ryzyka. Czy to oznaka dojrzałości, czy desperacka próba załatania dziur w kadłubie gigantycznego statku, który właśnie wszedł na wzburzone wody?

Czy OpenAI w końcu poważnie traktuje zagrożenia? Nowa rola w obliczu kryzysu
OpenAI ogłosiło poszukiwania nowego dyrektora wykonawczego, którego głównym zadaniem będzie dogłębne badanie wschodzących zagrożeń związanych ze sztuczną inteligencją. Mówimy tu o spektrum problemów, które sięgają od komputerowego bezpieczeństwa, aż po niepokojący wpływ na zdrowie psychiczne użytkowników. Sam Altman, CEO firmy, nie owijał w bawełnę, przyznając niedawno w poście na platformie X, że modele AI „zaczynają stwarzać realne wyzwania”.
To nie są już tylko fantastyczne scenariusze rodem z science fiction. Altman otwarcie mówi o dylematach: jak upewnić się, że najnowocześniejsze możliwości AI pomagają obrońcom cyberbezpieczeństwa, jednocześnie uniemożliwiając hakerom wykorzystanie tych samych narzędzi do szkodzenia? Jak opanować potencjał biologiczny modeli i jak zyskać pewność co do bezpieczeństwa systemów, które potrafią same się ulepszać? Jak zauważył: „jeśli chcesz pomóc światu rozwikłać, jak umożliwić obrońcom cyberbezpieczeństwa najnowocześniejsze możliwości, jednocześnie zapewniając, że atakujący nie mogą ich wykorzystać do wyrządzenia szkody […] zastanów się nad aplikowaniem”.
To stanowisko, nazwane „Head of Preparedness” (Szef ds. Gotowości), to nie byle jaka posada. W opisie rekrutacyjnym czytamy, że osoba ta będzie odpowiedzialna za wdrożenie „ram gotowości” firmy – czyli, jak to definiuje OpenAI, „naszych ram wyjaśniających podejście OpenAI do monitorowania i przygotowywania się na graniczne możliwości, które stwarzają nowe ryzyka poważnej szkody”.
Od katastroficznych wizji do problemów psychologicznych: ewolucja priorytetów
OpenAI nie zaczyna od zera. Już w 2023 roku firma powołała zespół do spraw gotowości, którego misją było badanie potencjalnych „ryzyk katastrofalnych” – od przyziemnych, jak ataki phishingowe, po te bardziej spekulatywne, jak zagrożenia nuklearne. Czyżby te globalne zagrożenia odeszły na drugi plan, ustępując miejsca bardziej przyziemnym zmartwieniom?
Świat AI jest dynamiczny, a kadry w tej dziedzinie rotują jak na karuzeli. Kilka miesięcy temu Aleksander Madry, ówczesny Szef ds. Gotowości, został przeniesiony na stanowisko skupione na rozumowaniu AI. Inni kluczowi inżynierowie ds. bezpieczeństwa również albo opuścili firmę, albo przenieśli się do innych działów. Czy to oznacza, że bezpieczeństwo przestało być priorytetem w sercu organizacji, czy po prostu firma poszukuje nowego, bardziej elastycznego podejścia do zarządzania tymi wyzwaniami?
Obecne poszukiwania wydają się być bezpośrednią reakcją na coraz intensywniejszą, niemalże histeryczną debatę publiczną dotyczącą wpływu generatywnej sztucznej inteligencji. Chatboty, które miały ułatwiać życie, są obecnie pod ostrzałem za potencjalnie destrukcyjny wpływ na samopoczucie emocjonalne użytkowników.
Czy AI niszczy zdrowie psychiczne? Pozwy i „wzmocnienie urojeń”
Nie sposób ignorować rosnącej liczby pozwów wytaczanych OpenAI. Doniesienia o tym, że ChatGPT miał wzmacniać urojenia użytkowników, pogłębiać ich społeczną izolację, a w dramatycznych przypadkach, przyczyniać się do samobójstw, rzucają ciemny cień na innowacyjność firmy. OpenAI deklaruje, że pracuje nad poprawą zdolności ChatGPT do rozpoznawania oznak cierpienia emocjonalnego i kierowania użytkowników do realnego wsparcia, ale te oskarżenia stanowią poważny test wiarygodności.
Co więcej, na rynku toczy się swoisty wyścig zbrojeń bezpieczeństwa. Firma niedawno zaktualizowała swoje Ramy Gotowości, sugerując, że może być zmuszona do „dostosowania” swoich wymagań bezpieczeństwa, jeśli konkurencyjne laboratorium wypuści model wysokiego ryzyka bez analogicznych zabezpieczeń. W atmosferze tej „wyścigu o najinteligentniejszą” technologię, firmy muszą balansować między innowacyjnością a odpowiedzialnością. Zatrudnienie nowego, doświadczonego menedżera ds. ryzyka może być desperacką próbą utrzymania równowagi na tej cienkiej linie.