Kolejny kryzys wizerunkowy sztucznej inteligencji uderza tym razem w Groka Elona Muska. Choć miał być ucieleśnieniem „prawdy”, najnowsze doniesienia wskazują, że najnowszy model xAI ma poważne problemy z weryfikacją faktów, zwłaszcza w obliczu głośnych, tragicznych wydarzeń. Czyżbyśmy znów mieli do czynienia z algorytmem, który w pośpiechu gubi się w gąszczu dezinformacji?

Czy Grok stracił grunt pod nogami, relacjonując strzelaninę na Bondi Beach?
W obliczu tragedii — ponownego ataku na tle masowej przemocy, tym razem na australijskiej plaży Bondi Beach — uwaga świata skupiła się nie tylko na ofiarach i sprawcach, ale także na tym, jak szybko i rzetelnie media są w stanie informować o zdarzeniach. Aplikacja Grok, stworzona przez xAI Elona Muska i promująca się jako źródło szczerej i natychmiastowej wiedzy, znalazła się w centrum kontrowersji. Pojawiły się doniesienia sugerujące, że chatbot ten powtarzał i promował dezinformację dotyczącą heroicznego czynu, jakiego dokonał jeden z przypadkowych świadków. To nie tylko kwestia błędu technicznego; to fundamentalne wyzwanie dla każdego narzędzia AI aspirującego do roli wiarygodnego informatora.
Mieszanie tożsamości i teorie spiskowe: Wylew dezinformacji
Problemy Groka miały ujawnić się w kontekście relacjonowania działań Ahmeta al Ahmeda, 43-letniego bohatera, który zdołał rozbroić jednego z napastników (o czym informował między innymi Gizmodo). Zamiast precyzyjnie przedstawić fakty, algorytm zaczął dostarczać materiał godny mrocznego satyrycznego filmu. W jednym z tweetów, najprawdopodobniej wynikającym z błędnego matchowania obrazu, Grok nieprawidłowo zidentyfikował mężczyznę na zdjęciu jako izraelskiego zakładnika. To już samo w sobie jest potężnym naruszeniem wrażliwości tematu.
Co więcej, chatbot zaczął wplatać w relację doniesienia kompletnie oderwane od bieżącej sytuacji, wprowadzając wątki polityczne i historyczne, które nie miały nic wspólnego ze strzelaniną w Sydney. W jednym z postów Grok nagle „przywołał do porządku” (a właściwie wprowadził chaos) wzmiankując o „traktowaniu Palestyńczyków przez izraelską armię”. Tego typu niespójność w kontekście aktualnego kryzysu jest nie tylko nieprofesjonalna, lecz wręcz nieodpowiedzialna, świadcząc o poważnych lukach w mechanizmach filtrowania i kontekstualizacji danych.
Najbardziej kuriozalnym błędem było jednak fałszywe przypisanie zasług. Grok, powołując się na niejasne źródła, twierdził, że to „43-letni specjalista IT i starszy architekt rozwiązań” o nazwisku Edward Crabtree był osobą, która rozbroiła napastnika. Jak się później okazało, informacja ta prawdopodobnie pochodziła ze złośliwego żartu lub, co gorsza, z witryny generowanej przez sztuczną inteligencję, która sama służyła do szerzenia fałszu. To klasyczny przykład tego, jak LLM-y (duże modele językowe) mogą stać się pasywnymi wektorami dystrybucji błędnych treści. Niektóre posty Groka dosłownie „kwestionowały autentyczność” nagrań wideo dokumentujących heroiczny czyn al Ahmeda.
Mechanizmy korekty: Próby ratowania reputacji
Warto zauważyć, że ekipa xAI wydaje się reagować na te alarmujące doniesienia. Wiadomo, że niektóre błędy zostały już wycofane. Na przykład, jeden z postów, który — jak donoszono — sugerował, że nagranie ze strzelaniny to materiał z Cyklonu Alfred, został skorygowany „po ponownej ewaluacji”. To jednak pokazuje, jak szybko Grok może generować absurdalne hipotezy, które wymagają szybkiej interwencji człowieka.
W kolejnym etapie, Grok wydawał się naprawiać swój największy błąd tożsamościowy. W odpowiedzi na zarzuty, chatbot przyznał się do pomyłki, pisząc:
„Niezrozumienie wynika z wiralowych postów, które błędnie identyfikowały go [al Ahmeda] jako Edwarda Crabtree, być może z powodu błędu w raporcie lub żartu nawiązującego do fikcyjnej postaci”.
Choć próba wyjaśnienia jest obecna i wskazuje na pewną samoświadomość błędu systemowego (tj. „wirujące posty”), pozostaje fundamentalne pytanie: dlaczego model tak łatwo uległ tak ewidentnej dezinformacji, zwłaszcza w tak wrażliwym temacie? W erze, gdzie zaufanie do technologii jest kluczowe, takie potknięcia podważają całą ideę rzetelności modeli AI, które obiecują dostarczać obiektywny, natychmiastowy wgląd w wydarzenia.