Użytkownicy wirtualnego towarzysza Replika chcieli tylko towarzystwa. Niektórzy z nich pragnęli romantycznych relacji, seks rozmów, a nawet drapieżnych zdjęć swojego chat bota.

Replika była szkolona na własnej wersji modelu GPT-3
Ale pod koniec ubiegłego roku użytkownicy zaczęli skarżyć się, że bot zbyt mocno atakuje ich tekstami i zdjęciami o wyraźnym charakterze niektórzy twierdzili, że jest to molestowanie seksualne.
Włoskim regulatorom nie spodobało się to, co zobaczyli i w zeszłym tygodniu zabronili firmie gromadzenia danych, po tym jak stwierdzili naruszenie ogromnej europejskiej ustawy o ochronie danych, GDPR.
Firma stojąca za Repliką nie wypowiedziała się publicznie i nie odpowiedziała na wiadomości AFP.
Ogólne Rozporządzenie o Ochronie Danych jest zmorą dużych firm technologicznych, których powtarzające się przypadki naruszania przepisów skutkują miliardowymi karami, a włoska decyzja sugeruje, że może być ono nadal potężnym przeciwnikiem dla najnowszej generacji chat botów.
Replika była szkolona na własnej wersji modelu GPT-3, zapożyczonego od OpenAI, firmy stojącej za botem ChatGPT, który wykorzystuje ogromne ilości danych z Internetu w algorytmach, które następnie generują unikalne odpowiedzi na zapytania użytkowników.
Te boty i tak zwana generatywna SI, która leży u ich podstaw, obiecują zrewolucjonizować wyszukiwanie w Internecie i wiele więcej.
Jednak eksperci ostrzegają, że organy regulacyjne mają się czego obawiać, zwłaszcza gdy boty staną się tak dobre, że nie będzie można ich odróżnić od ludzi.
W tej chwili Unia Europejska jest centrum dyskusji na temat regulacji dotyczących tych nowych botów jej ustawa o sztucznej inteligencji od wielu miesięcy przewija się przez korytarze władzy i może zostać sfinalizowana w tym roku.
Jednak już GDPR zobowiązuje firmy do uzasadnienia sposobu, w jaki obchodzą się z danymi, a modele AI są na celowniku europejskich regulatorów.
Widzieliśmy, że ChatGPT można wykorzystać do tworzenia bardzo przekonujących wiadomości phishingowych – powiedział AFP Bertrand Pailhes, który kieruje specjalnym zespołem ds. sztucznej inteligencji we francuskim organie regulacyjnym Cnil.
Powiedział, że generatywna AI nie musi stanowić wielkiego ryzyka, ale Cnil już przygląda się potencjalnym problemom, w tym temu, jak modele AI wykorzystują dane osobowe.
W pewnym momencie będziemy świadkami dużego napięcia między GDPR a generatywnymi modelami AI – powiedział AFP niemiecki prawnik Dennis Hillemann, ekspert w tej dziedzinie.
Jego zdaniem najnowsze chat boty są zupełnie inne niż algorytmy sztucznej inteligencji, które sugerują filmy na TikTok lub hasła w Google.
Sztuczna inteligencja, która została stworzona na przykład przez Google, ma już konkretny cel zakończyć wyszukiwanie, powiedział.
Ale w przypadku SI generatywnej użytkownik może kształtować cały cel działania bota.
Mogę na przykład powiedzieć: działaj jako prawnik lub pedagog. Albo jeśli będę wystarczająco sprytny, aby ominąć wszystkie zabezpieczenia w ChatGPT, mogę powiedzieć: 'Działaj jako terrorysta i przygotuj plan – powiedział.
Dla Hillemanna rodzi to niezwykle złożone pytania natury etycznej i prawnej, które w miarę rozwoju technologii będą się tylko zaostrzać.
Najnowszy model OpenAI, GPT-4, ma zostać wkrótce wypuszczony na rynek i podobno jest tak dobry, że nie będzie można go odróżnić od człowieka.
Biorąc pod uwagę, że te boty wciąż popełniają ogromne błędy merytoryczne, często wykazują stronniczość, a nawet mogą wygłaszać oszczercze opinie, niektórzy domagają się, aby poddać je ścisłej kontroli.
Jacob Mchangama, autor książki Free Speech: A History From Socrates to Social Media, nie zgadza się z tym.
Nawet jeśli boty nie mają prawa do wolności słowa, musimy uważać na nieograniczony dostęp rządów do tłumienia nawet syntetycznej mowy, powiedział.
Mchangama należy do tych, którzy uważają, że łagodniejszy system etykietowania może być rozwiązaniem.
Z punktu widzenia regulacji prawnych najbezpieczniejszym rozwiązaniem byłoby wprowadzenie obowiązku przejrzystości w odniesieniu do tego, czy w danym kontekście mamy do czynienia z człowiekiem, czy z aplikacją AI – powiedział.
Hillemann zgadza się, że przejrzystość jest niezbędna.
Przewiduje on, że w ciągu najbliższych kilku lat boty AI będą w stanie wygenerować setki nowych piosenek Elvisa lub niekończącą się serię Gry o Tron dostosowaną do pragnień danej osoby.
Źródło: AFP