W środę Parlament Europejski przyjął stanowisko negocjacyjne w sprawie ustawy o sztucznej inteligencji (AI) 499 głosami za, 28 przeciw i 93 wstrzymującymi się przed rozmowami z państwami członkowskimi UE w sprawie ostatecznego kształtu prawa.
Systemy AI oparte na takich modelach jak ChatGPT, musiałyby spełniać wymogi przejrzystości
Przepisy zapewnią, że sztuczna inteligencja opracowana i wykorzystywana w Europie będzie w pełni zgodna z prawami i wartościami UE, w tym z nadzorem nad ludźmi, bezpieczeństwem, prywatnością, przejrzystością, niedyskryminacją oraz dobrostanem społecznym i środowiskowym.
Zasady opierają się na podejściu opartym na ryzyku i ustanawiają obowiązki dla dostawców i podmiotów wdrażających systemy sztucznej inteligencji w zależności od poziomu ryzyka, jakie sztuczna inteligencja może generować. Systemy AI o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi byłyby zatem zabronione, takie jak te wykorzystywane do oceny społecznej (klasyfikowanie ludzi na podstawie ich zachowań społecznych lub cech osobistych). Posłowie rozszerzyli listę o zakazy inwazyjnych i dyskryminujących zastosowań sztucznej inteligencji, takich jak:
Systemy zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w publicznie dostępnych przestrzeniach; zdalne systemy identyfikacji biometrycznej „po”, z jedynym wyjątkiem egzekwowania prawa w celu ścigania poważnych przestępstw i tylko po uzyskaniu zgody sądu; biometryczne systemy kategoryzacji wykorzystujące cechy wrażliwe (np. płeć, rasę, pochodzenie etniczne, status obywatelski, religię, orientację polityczną); predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub wcześniejszych zachowaniach przestępczych); systemy rozpoznawania emocji w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych; oraz nieukierunkowane pobieranie obrazów twarzy z Internetu lub nagrań CCTV w celu tworzenia baz danych rozpoznawania twarzy (naruszanie praw człowieka i prawa do prywatności).
Posłowie zapewnili, że klasyfikacja aplikacji wysokiego ryzyka będzie teraz obejmować systemy sztucznej inteligencji, które stanowią znaczną szkodę dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska. Systemy sztucznej inteligencji wykorzystywane do wpływania na wyborców i wyniki wyborów oraz w systemach rekomendacji wykorzystywanych przez platformy mediów społecznościowych (z ponad 45 milionami użytkowników) zostały dodane do listy wysokiego ryzyka.
Dostawcy modeli fundacyjnych – nowego i szybko rozwijającego się rozwiązania w dziedzinie sztucznej inteligencji – musieliby oceniać i ograniczać potencjalne zagrożenia (dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności) oraz rejestrować swoje modele w bazie danych UE przed ich wprowadzeniem na rynek UE. Systemy generowania sztucznej inteligencji oparte na takich modelach, takie jak ChatGPT, musiałyby spełniać wymogi przejrzystości (ujawniając, że treści zostały wygenerowane przez sztuczną inteligencję, pomagając również odróżnić tak zwane głębokie fałszywe obrazy od prawdziwych) i zapewniać zabezpieczenia przed generowaniem nielegalnych treści. Szczegółowe podsumowania danych chronionych prawem autorskim wykorzystanych do ich szkolenia również musiałyby zostać udostępnione publicznie.
Źródło: EU