Pionierski badacz i ojciec chrzestny AI Geoffrey Hinton powiedział, że odchodzi z Google, aby móc swobodnie mówić o zagrożeniach związanych z technologią, po tym jak zdał sobie sprawę, że komputery mogą stać się mądrzejsze od ludzi o wiele szybciej niż on i inni eksperci się spodziewali.
Czas na uregulowanie kwestii AI jest teraz
Odszedłem, aby móc mówić o zagrożeniach związanych z AI bez zastanawiania się, jak to wpłynie na Google – napisał w poniedziałek Geoffrey Hinton na Twitterze.
75 letni Hinton w wywiadzie dla New York Timesa powiedział, że martwi go zdolność SI do tworzenia przekonujących, fałszywych obrazów i tekstów, tworząc świat, w którym ludzie nie będą już mogli wiedzieć, co jest prawdą.
W ciągu swojej kilkudziesięcioletniej kariery, pionierskie prace Hintona nad głębokim uczeniem i sieciami neuronowymi pomogły stworzyć podstawy dla wielu technologii AI, które widzimy dzisiaj.
W ostatnich miesiącach nastąpił spazm wprowadzania AI. Startup OpenAI z San Francisco, wspierana przez Microsoft firma stojąca za ChatGPT, zaprezentowała w marcu swój najnowszy model AI, GPT-4. Inne giganty technologiczne zainwestowały w konkurencyjne narzędzia, w tym „Bard” Google.
Od czasu ogłoszenia swojego odejścia Hinton utrzymuje, że Google postępuje bardzo odpowiedzialnie w kwestii AI. Powiedział MIT Technology Review, że jest też wiele dobrych rzeczy w Google, o których chciałby mówić, ale te komentarze byłyby znacznie bardziej wiarygodne, gdybym nie był już w Google.
Google potwierdziło, że Hinton odszedł na emeryturę po 10 latach kierowania zespołem badawczym Google w Toronto.
Hinton odmówił dalszego komentarza we wtorek, ale powiedział, że będzie mówił więcej na ten temat na konferencji w środę.
Niektóre z niebezpieczeństw związanych z AI chatbots są dość przerażające, powiedział Hinton BBC. W tej chwili, o ile mogę powiedzieć, nie są one bardziej inteligentne od nas. Ale myślę, że wkrótce mogą być.
W wywiadzie dla MIT Technology Review Hinton wskazał również na złych aktorów, którzy mogą wykorzystywać AI w sposób, który może mieć szkodliwy wpływ na społeczeństwo, np. manipulując wyborami lub podżegając do przemocy.
Hinton powiedział również New York Timesowi, że „kilka osób wierzyło w to, że te rzeczy mogą być mądrzejsze od ludzi.
Ale większość ludzi uważała, że jest to dalekie od prawdy. I ja też tak myślałem. Myślałem, że jest to 30-50 lat lub nawet dłużej. Oczywiście już tak nie myślę.
Od czasu, gdy wspierany przez Microsoft startup OpenAI udostępnił w listopadzie ubiegłego roku ChatGPT, rosnąca liczba aplikacji generatywnej SI, które mogą tworzyć tekst lub obrazy, wywołała obawy o przyszłe uregulowanie tej technologii.
W centrum debaty na temat stanu AI leży pytanie, czy główne zagrożenia tkwią w przyszłości, czy w teraźniejszości. Z jednej strony są hipotetyczne scenariusze egzystencjalnego ryzyka spowodowanego przez komputery, które przewyższają ludzką inteligencję. Po drugiej stronie są obawy związane z zautomatyzowaną technologią, która jest już szeroko stosowana przez przedsiębiorstwa i rządy i może wyrządzić szkody w świecie rzeczywistym.
Na dobre i na złe, moment pojawienia się chatbota sprawił, że AI stała się narodową i międzynarodową rozmową, w której uczestniczą nie tylko eksperci od AI i deweloperzy” – powiedziała Alondra Nelson, która do lutego kierowała Biurem Polityki Naukowej i Technologicznej Białego Domu i jego dążeniem do opracowania wytycznych dotyczących odpowiedzialnego korzystania z narzędzi AI.
AI nie jest już abstrakcją, a my mamy szansę na nową rozmowę o tym, jak chcemy, aby wyglądała demokratyczna przyszłość i nieeksploatująca przyszłość z technologią” – powiedziała Nelson w wywiadzie w zeszłym miesiącu.
The Times cytuje głównego naukowca Google, Jeffa Deana, który w oświadczeniu powiedział: Pozostajemy zaangażowani w odpowiedzialne podejście do AI. Nieustannie się uczymy, aby zrozumieć pojawiające się zagrożenia, a jednocześnie odważnie wprowadzamy innowacje.
To, że tak wielu ekspertów mówi o swoich obawach dotyczących bezpieczeństwa AI, a niektórzy informatycy nawet żałują swojej pracy, powinno zaalarmować decydentów – powiedziała dr Carissa Veliz, profesor nadzwyczajny filozofii w Instytucie Etyki w AI na Uniwersytecie w Oxfordzie. Czas na uregulowanie kwestii AI jest teraz.
Źródło: CGTN