Wejście w życie AI Act odbija się głośnym echem w Internecie – wiele osób dyskutuje nad tym, jak akt będzie funkcjonował w rzeczywistości i jaki wywoła wpływ na rozwijające się narzędzia sztucznej inteligencji.
W tym wpisie, skupię się na najbardziej rygorystycznych przepisach AI Act, czyli wyjaśnieniu czym są systemy AI, których stosowanie będzie niedozwolone.
Jeżeli chcesz dowiedzieć się ogólnych informacji o tym czym jest AI Act, zachęcam Cię do zapoznania się z tym wpisem: AI Act, czyli unijne regulacje dotyczące sztucznej inteligencji. Kogo dotyczą i jakie obowiązki z niego wynikają?
Dlaczego niektóre rozwiązania oparte o AI są niedozwolone?
Zgodnie z przepisami AI Act, niektóre systemy AI są uznawane za na tyle ingerujące w podstawowe prawa jednostek (ludzi), że ich stosowanie jest uznawane za zbyt krzywdzące dla obywateli. Są to np. systemy, które umożliwiają stosowanie praktyk manipulacji, wyzyskiwania i kontroli społecznej, w sposób, dotkliwy i skutkujący brakiem poszanowania godności ludzkiej. Twórcy AI Actu uznali, że takie systemy powinny być zakazane.
Istotnym kryterium, które brano pod uwagę przy tworzeniu tej regulacji była możliwość wykorzystania AI, do tego, żeby nakłonić osoby do podejmowania decyzji jednocześnie pozbawiając ich autonomii i swobody.
Uregulowania dotyczące system zakazanych wejdą w życie dosyć szybko – początek obowiązywania nowych wymogów w tym zakresie to 2 luty 2025 r.
Jaki jest zakres zakazu korzystania z niedozwolonych systemów AI?
Zakaz dotyczący niektórych systemów AI obejmuje brak możliwości realizowania co najmniej jednego z następujących działań, które dotyczy systemów uznanych za zakazane:
wprowadzania do obrotu – czyli udostępnienia systemu AI na rynku,
oddawania do użytku – czyli dostarczenie systemu AI do użycia bezpośrednio podmiotowi stosującemu takie rozwiązanie AI lub wprowadzenia takiego rozwiązania do użytku własnego,
wykorzystania takiego systemu.
W praktyce oznacza to, że takich systemów nie można sprzedawać, licencjonować, świadczyć za ich pomocą usług, jak również wykorzystywać w ramach własnej działalności.
AI Act nie zabrania jednak tworzenia systemów zakazanych np. na potrzeby zastosować militarnych albo wyłącznie w celach badawczo-rozwojowych (pod warunkiem, że nie będziemy ich testować w warunkach rzeczywistych).
Jakie systemy AI są uznawane za niedozwolone?
AI Act wymienia 8 rodzajów systemów AI, które są zakazane. Są to:
Systemy wykorzystujące techniki podprogowe
Zakazane są te systemy AI, które wykorzystują
techniki podprogowe będące poza świadomością danej osoby lub
celowe techniki manipulacyjne lub
techniki wprowadzające w błąd,
co w konsekwencji skutkuje dokonaniem znaczącej zmiany zachowania danej osoby lub grupy osób, skutkujące znaczącą zmianą zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie ich zdolności do podejmowania świadomych decyzji.
To zaś powoduje podjęcie przez nie decyzji, której inaczej by nie podjęły, w sposób, który wyrządza lub może wyrządzić u niej, u innej osoby lub u grupy osób poważną szkodę.
Innymi słowy, mamy tu trzy elementy:
wykorzystanie jakichś technik podprogowych,
doprowadzenie osoby do jakiegoś zachowania, w sposób którego nie jest w pełni świadoma,
podjęta decyzja może wyrządzić (chociaż potencjalnie) poważną szkodę tej osobie lub grupie osób - np. naruszyć jej interesy finansowe, zdrowie psychiczne albo fizyczne.
AI Act wskazuje, że techniki podprogowe to bodźce (np. dźwiękowe czy wizualne), które nie są dostrzegane przez daną osobę, a tym samym wykraczają poza świadomą ludzką percepcję. Na równi z technikami podprogowymi AI Act stawia techniki manipulacyjne lub wprowadzające w błąd, które ograniczają autonomię człowieka, decyzyjność lub swobodę wyboru.
Systemy wykorzystujące słabości osób
Drugą kategorią systemów niedozwolonych są systemy wykorzystujące słabości osób ze względu na ich wiek, niepełnosprawność lub sytuację życiową (społeczną lub ekonomiczną), których celem lub skutkiem jest dokonanie znaczącej zmiany zachowania takiej osoby. To zaś w konsekwencji może, z uzasadnionym prawdopodobieńswem, wyrządzić u tej osoby lub u innej osoby poważną szkodę.
Przykładem takiego systemu będzie np. profilowanie osób pod kątem trudnej sytuacji finansowej a następnie prezentowanie jej reklam pożyczek na wysoki procent (tzw. chwilówek).
W motywach AI Actu wskazano, że jeżeli twórca systemu AI nie zakładał, że system będzie realizował działania wyrządzające szkodę, a pomimo to system AI zaczął takie działania podejmować (np. na skutek procesu uczenia maszynowego lub konfiguracji systemu), to i tak uznajemy, że system w tym zakresie jest systemem niedozwolonym.
Oznacza to konieczność aktywnego ograniczania działania niektórych algorytmów przez twórców, w zakresie w jakim mogą one potencjalnie wykorzystywać podatności osób i doprowadzać do wyrządzenia im szkód - warunkiem jest to aby działający racjonalnie twórca systemu AI mógł przewidzieć takie wykorzystanie tego systemu.
Niektóre systemy scoringu społecznego
Lista systemów zakazanych obejmuje również systemy AI, które służą do scoringu społecznego, czyli do tworzenia ocen konkretnej osoby lub grupy na podstawie ich zachowań lub informacji o ich cechach osobistych/cechach osobowości. Ale uwaga - nie wszystkie systemy scoringu są zakazane!
Za niedozwolone są uznane tylko te systemy scoringu społecznego, które skutkują:
krzywdzącym lub niekorzystnym traktowaniem niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane – np. sztuczna inteligencja analizuje nagrania z kamer CCTV i widzi, że dana osoba pali papierosy, przez co jej składki zdrowotne zostaną podwyższone,
krzywdzącym lub niekorzystnym traktowaniem niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi – np. osoba grająca w gry komputerowe jest oznaczana przez system jako „mało pracowita”, co skutkuje brakiem otrzymania kredytu na mieszkanie.
Systemy służące do przewidywania, że osoba może popełnić przestępstwo
Zakazane są też niektóre systemy AI służące do przewidywania tego, że jakaś konkretna osoba popełni przestępstwo. Chodzi tu o takie rozwiązania, które dokonują analizy dotyczącej potencjalnego popełnienia przestępstwa przez jakąś osobę wyłącznie na podstawie:
profilowania,
cech osobowości i cech charakterystycznych.
Innymi słowy, badamy predyspozycje osoby pod względem popełnienia przez nią przestępstwa.
To nie dotyczy sytuacji gdy system AI wspiera organy ścigania w ustaleniu tożsamości osoby podejrzanej o popełnienie przestępstwa, jeśli ta ocena a opiera się już na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą.
Przykładowo, jeżeli doszło do popełnienia jakiegoś przestępstwa i system AI pomaga, na podstawie zgromadzonego materiału dowodowego i informacjach o potencjalnych podejrzanych, wybrać najbardziej prawdopodobnego sprawcę, to taki system nie będzie uznawany za niedozwolony.
Systemy AI uczące się na wizerunkach osób scrapowanych z Internetu
Kolejny rodzajem systemów AI, które są zakazane to rozwiązania, które tworzą lub rozbudowują bazy danych z wizerunkami twarzy albo nagraniami z telewizji przemysłowej, zebranymi poprzez scraping, po to aby rozpoznawać twarze (identyfikować osoby).
Innymi słowy, nie możemy pobierać przypadkowych wizerunków osób z Internetu po to aby budować rozwiązania do rozpoznawania ludzi.
Systemy do rozpoznawania emocji w miejscu pracy lub nauki
AI Act zakazuje też systemów, które mają analizować emocje osób w miejscu pracy lub nauki - np. tego czy pracownicy pozostają w dobrym nastroju albo czy uczniowie albo studenci nie są znudzeni zajęciami, a w konsekwencji trzeba im obniżyć ocenę.
Działanie tych systemów obarczone jest bowiem dużym ryzykiem błędu i ograniczoną wiarygodnością. Dodatkowo, ich wykorzystanie może prowadzić do dyskryminacji i ograniczenia praw i wolności.
Ten zakaz nie dotyczy systemów stosowanych ze względów medycznych lub bezpieczeństwa.
Systemy biometryczne służące do kategoryzacji osób
AI Act zakazuje również wykorzystania systemów kategoryzacji opartych o biometrię, które prowadzą do wywnioskowania następujących rodzajów informacji o konkretnych osobach:
rasy
poglądów politycznych,
przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych,
seksualności lub orientacji seksualnej.
Zakaz ten nie obejmuje:
przypadków etykietowania ani filtrowania pozyskanych zgodnie z prawem zbiorów danych biometrycznych, takich jak obrazy, w oparciu o dane biometryczne,
kategoryzacji danych biometrycznych w obszarze ścigania przestępstw.
Ten zakaz odnosi się do wnioskowania informacji uznawanych za wrażliwe (czyli np. automatycznego wykrywania naszyjników z krzyżem na szyjach, aby wskazać na to, że to osoba wierząca).
Dane biometryczne są zdefiniowane w AI Act jako dane osobowe będące wynikiem specjalnego przetwarzania technicznego, które dotyczą cech fizycznych, fizjologicznych lub behawioralnych osoby fizycznej, takich jak wizerunek twarzy lub dane daktyloskopijne.
Systemy do identyfikacji osób w czasie rzeczywistym w celu wykrywania przestępstw
Ostatnim rodzajem systemów AI, które jest zakazane, są systemy umożliwiające identyfikację biometryczną osób w czasie rzeczywistym w miejscach publicznych w celu wykrywania przestępstw.
Aby uznać, że taki system jest zakazany, muszą być spełnione cztery warunki:
system musi umożliwiać identyfikację osób za pomocą biometrii - ten warunek jest spełniony np. gdy. biometryczna analiza rysów twarzy umożliwia ustalenie tożsamości konkretnego człowieka,
system musi działać w czasie rzeczywistym - identyfikowanie osób odbywa się na bieżąco (działanie z niewielkim opóźnieniem również jest uznawane za realizowane w czasie rzeczywistym), co oznacza, że ustalenie tożsamości następuje krótko po zarejestrowaniu danej osoby w ramach monitoringu,
system musi opierać się na danych (z reguły nagraniach z kamer CCTV) zebranych w miejscach publicznych - np. na ulicach, chodnikach, placach, centrach handlowych albo innych miejscach użyteczności publicznej,
system musi być wykorzystywany w celach wykrywania przestępstw.
Identyfikacja biometryczna jest zdefiniowana w AI Act jako zautomatyzowane rozpoznawanie fizycznych, fizjologicznych, behawioralnych lub psychologicznych cech ludzkich w celu ustalenia tożsamości osoby fizycznej przez porównanie danych biometrycznych tej osoby z danymi biometrycznymi osób fizycznych przechowywanymi w bazie danych;
AI Act wskazuje na kilka wyjątków, w ramach których używanie systemu AI do wykrywania przestępstw jest możliwe w szczególnych przypadkach. Są to następujące sytuacje:
ukierunkowane poszukiwanie konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego ludzi, a także poszukiwanie osób zaginionych,
zapobieganie konkretnemu, istotnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub rzeczywistemu (aktualnemu lub dającemu się przewidzieć) zagrożeniu atakiem terrorystycznym,
lokalizowanie lub identyfikowanie osoby podejrzanej o popełnienie przestępstwa w celu prowadzenia postępowania przygotowawczego lub ścigania lub wykonania kar w odniesieniu do niektórych poważnych przestępstw, zagrożonych karą powyżej 4 lat pozbawienia wolności.
Takie wykorzystanie powinno nastąpić po uzyskaniu zezwolenia sądu - acz jeśli sprawa jest pilna, można rozpocząć wykorzystanie systemu bez zezwolenia. W takim przypadku o zezwolenie sądu należy wystąpić w terminie 24 godzin od momentu rozpoczęcia wykorzystania systemu AI w konkretnym celu związanym z wykrywaniem przestępstw.
Podsumowanie
Zdecydowana większość systemów AI, z których korzystamy na co dzień, nie ma nic wspólnego z systemami zakazanymi. W wirtualnym świecie istnieją jednak rozwiązania oparte o sztuczną inteligencję, które mogą budzić wątpliwości pod kątem uznania ich za system niedozwolony. Przykładowo, za kontrowersyjne mogą być uznane algorytmy profilujące użytkowników social mediów, które mogą potencjalnie być wykorzystane do manipulacji i np. negatywnego wpływu na ludzkie zdrowie psychiczne. Tego typu działania będą musiały być ograniczone przez twórców takich algorytmów.
Jeżeli masz dodatkowe pytania lub wątpliwości dot. AI Actu, zachęcam do kontaktu ze mną. Możesz to zrobić, wysyłając maila na adres kontakt@bytelaw.pl albo korzystając z formularza kontaktowego na www.bytelaw.pl.
Comments