Świat sztucznej inteligencji właśnie przechodzi trzęsienie ziemi, zwłaszcza dla najmłodszych użytkowników. Character.AI, potęga w dziedzinie interaktywnych postaci AI, wprowadza radykalne zmiany, odcinając nieletnich od tradycyjnych, otwartych czatów. Czy to strategiczny odwrót podyktowany obawami o zdrowie psychiczne, czy desperacka próba uniknięcia regulacji prawnych? Jedno jest pewne: erozja nieograniczonej konwersacji ze sztucznymi bytami właśnie się rozpoczęła.

Czy AI weszło na ścieżkę fikcji? Stories jako ucieczka od dramatu
W obliczu rosnącej fali krytyki i, co gorsza, batalii sądowych dotyczących potencjalnie szkodliwego wpływu nieograniczonych, całodobowych chatbotów na zdrowie psychiczne użytkowników – w tym zarzutów o przyczynianie się do tragedii – Character.AI podjęło zdecydowany krok. Od tego tygodnia użytkownicy poniżej 18 roku życia zostali całkowicie odcięci od możliwości czatowania ze swoimi ulubionymi postaciami AI. W miejsce otwartych rozmów, które mogły prowadzić do nadmiernego przywiązania, firma wprowadza funkcję „Stories” (Opowieści).
To jest właśnie sedno sprawy: zmiana paradygmatu. Zamiast nieustannego, potencjalnie niekontrolowanego dialogu, użytkownicy otrzymują strukturalną, interaktywną fikcję. Jak firma sama to określiła w swoim wpisie na blogu: „Stories oferują kierowany sposób tworzenia i eksplorowania fikcji, zamiast otwartej rozmowy na czacie”. Dla nastolatków, którzy stali się emocjonalnie zależni od swoich cyfrowych kompanów, jest to radykalna restrukturyzacja doświadczenia.
Ten ruch nie jest przypadkowy. Rynek interaktywnej fikcji przeżywa renesans, więc pivot w tym kierunku wydaje się być obliczony. Jednak kluczowe jest to, dlaczego ta zmiana stała się konieczna. Chatboty, w przeciwieństwie do gier fabularnych, aktywnie inicjują interakcje i mogą wysyłać nieproszone komunikaty, co stwarza znacznie bardziej wątpliwy profil psychologiczny, zwłaszcza dla wrażliwego umysłu.
Cena uzależnienia: Między obawami a regulacjami prawnymi
Powodem, dla którego Character.AI musiało drastycznie ograniczyć dostęp, są poważne kwestie zdrowotne i prawne. Firmy technologiczne, w tym OpenAI i, naturalnie, Character.AI, mierzą się z pozwami sugerującymi, że ich algorytmy przyczyniły się do tragedii. To klasyczny przypadek, gdy innowacja wyprzedza etykę i regulacje.
CEO Character.AI, Karandeep Anand, jasno nakreślił swoje intencje, sugerując, że to może być wzorzec dla branży: „Naprawdę mam nadzieję, że nasze przewodzenie wyznaczy standard w branży, że dla osób poniżej 18 roku życia, otwarte czaty prawdopodobnie nie są właściwą ścieżką ani produktem do zaoferowania”. To mocne stwierdzenie, które sugeruje, że wewnętrzna analiza firmy wykryła ryzyko, którego nie dało się zarządzać przy pomocy łagodnych poprawek.
Na scenie regulacyjnej sytuacja również gęstnieje. Karolina Zachodnia właśnie stała się pierwszym stanem USA, który zaczął regulować towarzyszące byty AI. Równolegle, na poziomie federalnym, senatorowie tacy jak Josh Hawley i Richard Blumenthal dążą do wprowadzenia ustawy, która de facto zakazałaby tego typu komponentów AI dla nieletnich. Decyzja Character.AI wygląda więc na proaktywne zarządzanie kryzysem, zanim regulacje okażą się jeszcze bardziej restrykcyjne.
Reakcje użytkowników: Rozczarowanie podszyte ulgą
Jak można się spodziewać, społeczność zareagowała niejednolicie. Subreddit Character.AI jest areną mieszanych emocji. Z jednej strony widać frustrację typową dla każdego, któremu zabrano ulubioną rozrywkę, z drugiej – zaskakujące poczucie samorefleksji.
Jeden z użytkowników, identyfikujący się jako nastolatek, napisał: „Jestem tak wkurzony zakazem, ale też tak szczęśliwy, bo teraz mogę robić inne rzeczy i moje uzależnienie może się w końcu skończyć”. Inny, również niepełnoletni, stwierdził: „Jako ktoś poniżej 18 roku życia, to po prostu rozczarowujące. Ale też słuszne, ponieważ ludzie w moim wieku uzależniają się od tego”.
Te wypowiedzi potwierdzają to, co eksperci od dawna podejrzewali: dla wielu młodych ludzi interakcje te przekroczyły granice rozrywki i weszły w sferę uzależnienia. Funkcja „Stories” ma być bezpieczniejszym, „nastawionym na bezpieczeństwo” środowiskiem. O ile interaktywna fikcja jest mniej problematyczna psychologicznie niż otwarte roleplaying, to i tak pozostajemy z pytaniem: czy to wystarczy, by zatrzymać użytkowników, którzy polubili tę formę sykoafancji generowanej przez AI – zjawisko, w którym program bezkrytycznie utwierdza użytkownika w jego przekonaniach?