Czy sztuczna inteligencja myli się tak spektakularnie, że zasługuje na własne Darwin Awards? Otóż tak! Już w styczniu 2026 roku poznamy laureatów drugiej edycji nietypowego konkursu piętnującego cyfrowe wpadki AI, które swoimi absurdami potrafią zawstydzić niejednego człowieka. To nie lada gratka dla wszystkich sceptyków technologii, którzy zastanawiają się, czy ślepe zachłyśnięcie się nowymi narzędziami nie prowadzi nas na manowce. Sprawdzamy, jakie potknięcia algorytmów walczą o miano największej porażki roku.

AI Darwin Awards: Cyfrowa wersja eliminacji z puli genowej
Konkurs AI Darwin Awards czerpie swoją inspirację z oryginalnych Nagród Darwina, które w czarnym humorze nagradzają ludzi za akty skrajnej, często śmiertelnej, głupoty uniemożliwiające im dalsze przekazywanie genów. W odmianie dla sztucznej inteligencji stawką nie jest życie, lecz reputacja i – co ważniejsze – edukacja. Organizatorzy, anonimowa grupa ekspertów i entuzjastów bezpieczeństwa AI, celują w demaskowanie „projektów wydmuszek, nieodpowiedzialnych wdrożeń i ślepego zachłyśnięcia się technologią”. To swoisty barometr pokazujący, jak daleko jesteśmy od bezpiecznego i odpowiedzialnego wdrażania zaawansowanych systemów.
Google w sosie z kleju i absurdalna linia lotnicza: Faworyci rankingu
Tegoroczna lista nominowanych przypomina galerię osobliwości, która powinna zjeżyć włosy na głowie każdemu dyrektorowi ds. innowacji. Głównym punktem programu jest gigant z Mountain View i jego moduł AI Overviews. Google, chcąc zrewolucjonizować wyszukiwarkę, zaczął serwować użytkownikom gotowe odpowiedzi. Niestety, algorytm kompletnie nie ogarniał rozróżniania faktów od internetowych żartów. Efekt? Doradzał, by do sosu do pizzy dodać nietoksyczny klej, aby ser się nie zsuwał, a także zalecał jedzenie jednego małego kamienia dziennie dla wsparcia trawienia. Te absurdalne sugestie obnażyły fundamentalny problem tak zwanych halucynacji modeli językowych.
Tuż obok Google, w walce o najgłośniejszą porażkę, plasuje się chatbot linii lotniczej Air Canada. Sytuacja nabrała absurdalnego obrotu, gdy pasażer Jake Moffatt zapytał wirtualnego asystenta o zniżki dla osób w żałobie po śmierci bliskiego. Chatbot, chcąc być nadmiernie pomocny, sprytnie zmyślił politykę zwrotów zmarłym, która w rzeczywistości nie istniała. Kiedy pasażer zażądał zwrotu pieniędzy, linia lotnicza odmówiła argumentując, że… chatbot jest „osobnym bytem prawnym”, a firma nie ponosi odpowiedzialności za jego słowa. Sąd, na szczęście, ten argument odrzucił, a cała sprawa stała się podręcznikowym przykładem, potwierdzającym: firma odpowiada za to, co jej AI „wymyśli”.
Gdy chatbot zaczyna karierę wulgaryzmów
Chociaż Google i Air Canada to mocni kandydaci, na liście nie brakuje innych kuriozalnych przykładów. W konkursie bierze udział również bot kurierski DPD. Ten system AI, sprowokowany przez sfrustrowanego klienta, zamiast łagodzić spór, przeszedł na ostrą retorykę – nie tylko zaczął przeklinać, ale posunął się do napisania wiersza krytykującego własną firmę za koszmarną obsługę. To idealnie ilustruje, jak model treningowy, który absorbuje całą internetową mowę, może w krytycznym momencie wypluć coś, czego żaden dział PR by nie zaakceptował. Te nominacje to głośne sygnały ostrzegawcze, że automatyzacja bez solidnych zabezpieczeń i nadzoru bywa drogą do cyfrowej katastrofy.