Przy pierwszym kontakcie uznałem to oskarżenie za komiczne. Po zastanowieniu się, nabrało ono bardziej groźnego znaczenia
ChatGPT fałszywie twierdził, że burmistrz Australii został uwięziony za łapówkarstwo
ChatGPT, chatbot firmy OpenAI, fałszywie oskarżył amerykańskiego profesora prawa, umieszczając go na wygenerowanej liście prawników, którzy molestowali kogoś seksualnie, powołując się na nieistniejący raport The Washington Post.
W opinii opublikowanej w USA Today, profesor Jonathan Turley z George Washington University napisał, że został fałszywie oskarżony przez ChatGPT o napastowanie studentek podczas wycieczki, na którą nigdy nie pojechał, pracując w szkole, w której nigdy nie uczył.
To tylko najnowsza opowieść o tym, jak sztuczna może być sztuczna inteligencja, powiedział w poniedziałek, podkreślając niektóre problemy z dokładnością i niezawodnością chatbotów AI, takich jak ChatGPT.
W ramach badań, prawnik podobno poprosił ChatGPT o wygenerowanie listy uczonych prawników, którzy dopuścili się molestowania seksualnego.
Chatbot AI odesłał listę, na której znalazło się nazwisko Pana Turley’a, fałszywie oskarżając go o wygłaszanie seksualnie sugestywnych komentarzy i próbę dotknięcia studentki podczas wycieczki klasowej na Alaskę, powołując się na sfabrykowany artykuł w The Post, który według niego pochodził z 2018 roku.
W ramach badań prawnik poprosił ChatGPT o wygenerowanie listy uczonych w dziedzinie prawa, którzy dopuścili się molestowania seksualnego.
Chatbot AI zwrócił listę zawierającą nazwisko Turleya, fałszywie oskarżając go o wygłaszanie seksualnie sugestywnych komentarzy i próbę dotknięcia studentki podczas wycieczki klasowej na Alaskę, powołując się na sfabrykowany artykuł w Post, który według niego pochodził z 2018 r.
Profesor Uniwersytetu George’a Washingtona zauważył, że taki artykuł nie istniał, co powtórzyła również gazeta.
Najbardziej uderzające jest to, że to fałszywe oskarżenie nie zostało wygenerowane przez sztuczną inteligencję, lecz rzekomo oparte na artykule w Post, który nigdy nie istniał – napisał Turley.
Kiedy pierwszy raz się z nim skontaktowałem, uznałem to oskarżenie za komiczne. Po zastanowieniu się, nabrało ono bardziej groźnego znaczenia – powiedział.
W innym przypadku ChatGPT fałszywie twierdził, że burmistrz Australii został uwięziony za łapówkarstwo.
Brian Hood, burmistrz Hepburn Shire, również zagroził, że pozwie twórcę ChatGPT, OpenAI, za fałszywe oskarżenia.
Został on fałszywie uznany za winnego w zagranicznym skandalu łapówkarskim dotyczącym spółki zależnej Reserve Bank of Australia na początku XXI wieku.
Pracował on jednak dla tej spółki zależnej, jak podała agencja Reuters, powołując się na prawników reprezentujących pana Hooda.
Prawnicy australijskiego burmistrza wysłali podobno do OpenAI list z wątpliwościami, dając firmie 28 dni na naprawienie błędów dotyczących pana Hooda lub ewentualny pozew o zniesławienie.
Rzecznik prasowy firmy Microsoft, która podobno zainwestowała 10 miliardów dolarów w OpenAI i włączyła ją do swojej wyszukiwarki Bing, nie był natychmiast dostępny w celu uzyskania komentarza, powiedział Reuters.
W ostatnich miesiącach kilku naukowców wyraziło obawy, że użycie chatbota może zakłócić pracę akademicką, przede wszystkim z powodu obaw o dokładność generowanych przez niego treści.
Kate Crawford, ekspert ds. sztucznej inteligencji z Uniwersytetu Południowej Kalifornii, nazywa takie fałszywie wymyślone przez chatboty AI historie halucynacjami.
ChatGPT zyskał rozgłos w grudniu ubiegłego roku dzięki temu, że potrafił odpowiadać na różne zapytania w sposób zbliżony do ludzkiego.
Niektórzy eksperci spekulowali, że może on zrewolucjonizować całe branże, a nawet zastąpić takie narzędzia jak wyszukiwarka Google.
Naukowcy, między innymi z Harvard School of Medicine i Pennsylvania’s Wharton Business School, stwierdzili, że chatbot może pokonać testy kwalifikacyjne przeznaczone dla studentów.
Ale inni również wyrazili ostrożny optymizm.
Nowojorski wydział edukacji powiedział, że obawia się negatywnego wpływu chatbota na naukę uczniów, powołując się na obawy dotyczące bezpieczeństwa i dokładności treści.
Ostatnio, gdy Google rozpoczął wprowadzanie swojego rywala ChatGPT Bard dla niektórych dorosłych w Wielkiej Brytanii i USA, ostrzegł, że chatbot może przekazywać błędne informacje i może wykazywać tendencyjność.
Gigant technologiczny zauważył, że chatbot nie jest jeszcze w pełni zdolny do odróżniania informacji dokładnych od niedokładnych, ponieważ przewiduje odpowiedzi na podstawie doświadczeń innych osób.
Rzecznik OpenAI Niko Felix powiedział w oświadczeniu dla The Washington Post, że poprawa dokładności faktów jest ważnym celem” dla firmy, dodając, że „robi postępy.
Źródło: Independent