top of page

Modele AI ogólnego przeznaczenia – co mówi o nich AI Act?

  • Zdjęcie autora: Michał Nosowski
    Michał Nosowski
  • 29 lip
  • 6 minut(y) czytania
ree

Modele ogólnego przeznaczenia (General-Purpose AI Models, GPAI) to dziś podstawa działania wielu znanych narzędzi AI – takich jak ChatGPT, Gemini czy Copilot.


Możemy z nich korzystać w przeglądarce internetowej, na telefonie, a nawet w lodówce z asystentem głosowym albo w samochodzie.


Te rozwiązania podbijają obecnie świat - są powszechnie dostępne, bardzo popularne i dynamicznie rozwijane przez swoich twórców.


Co je wyróżnia? Nie zostały stworzone do jednego konkretnego zadania – wręcz przeciwnie, mają być maksymalnie uniwersalne. Możemy je wykorzystywać do pisania, tłumaczenia, tworzenia oprogramowania, generowania obrazów, analizy danych – lista zastosowań jest bardzo szeroka. Co więcej, wiele z nich jest dostępnych za darmo co sprawia, że korzystają z nich nie tylko profesjonaliści, ale też miliony zwykłych osób, ciekawych w jaki sposób AI może ułatwić im życie.


Brzmi imponująco? Tak – właśnie dlatego unijny AI Act poświęca im sporo uwagi i wprowadza konkretne obowiązki dla ich twórców („dostawców”), aby zminimalizować zagrożenia dla użytkowników.


Jeżeli chcesz dowiedzieć się więcej o AI Act to:



Czym jest model AI ogólnego przeznaczenia w rozumieniu AI Actu?


Do AI Actu wpisano definicję modeli AI ogólnego przeznaczenia. Brzmi ona tak:


Model AI ogólnego przeznaczenia to model AI, w tym model AI trenowany dużą ilością danych z wykorzystaniem nadzoru własnego na dużą skalę, który wykazuje znaczną ogólność i jest w stanie kompetentnie wykonywać szeroki zakres różnych zadań, niezależnie od sposobu, w jaki model ten jest wprowadzany do obrotu, i który można zintegrować z różnymi systemami lub aplikacjami niższego szczebla.

Definicja ta nie obejmuje modeli AI, które są wykorzystywane na potrzeby działań w zakresie badań, rozwoju i tworzenia prototypów przed wprowadzeniem ich do obrotu.


Innymi słowy, model AI ogólnego przeznaczenia to taki model, który:

  • jest wytrenowany na dużej ilości danych - wytyczne Komisji Europejskiej wskazują, że łączna liczba obliczeń wykorzystywanych do trenowania modelu, mierzona w operacjach zmiennoprzecinkowych (FLOP) będzie zwykle jest większa niż 1023, przy czym jest to raczej wskazówka a nie sztywne kryterium,

  • może potencjalnie realizować różne zadania - wytyczne KE mówią zwłaszcza o generowaniu tekstu lub głosu, ew. obrazów albo wideo,

  • może być integrowany z innymi rozwiązaniami.


AI Act rozróżnia pojęcie modelu AI od systemu AI


Docelowo model AI może być podstawą systemów AI, czyli gotowych rozwiązań, które są wykorzystywane przez użytkowników. Przykładowo, model AI, uruchomiony w ramach jakiejś infrastruktury oraz zintegrowany z nim interfejs użytkownika, będą stanowiły kompletny system AI.


W dużym uproszczeniu model jest czymś w rodzaju silnika (bazy), a system - kompletnym rozwiązaniem, z którego korzysta odbiorca.


Jeżeli model AI jest zintegrowany z innymi elementami w taki sposób, że stanowi część kompletnego systemu AI, to system ten może być tzw. systemem AI ogólnego przeznaczenia. Dzieje się tak gdy w wyniku zintegrowania modelu system ten (podobnie jak model, o który jest oparty) może być wykorzystywany przez użytkowników w różnych celach.


 

ree

Kto podlega nowym przepisom?


Obowiązki wynikające z AI Act dotyczące modeli AI ogólnego przeznaczenia dotyczą dostawców, czyli wszystkich osób (fizycznych i prawnych), organizacji, przedsiębiorstw, agencji rządowych itp., które:

  • tworzą modele AI ogólnego przeznaczenia (w tym za pomocą podwykonawców), a następnie

  • wprowadzają taki system do obrotu na terenie UE albo oddają go do użytku.


Jeśli dostawca jest spoza Unii, musi wyznaczyć przedstawiciela na terenie UE, który będzie odpowiadał za kontakt z organami i przechowywanie wymaganej dokumentacji.


Co jeśli tylko doskonalimy istniejący model w ramach fine-tuningu? W takim przypadku też możemy się stać dostawcą, ale tylko w dość szczególnej sytuacji - jeśli moc obliczeniowa do fine-tuningu modelu przekroczy wartość 1/3/ mocy obliczeniowej użytej do stworzenia pierwotnego modelu.

 

Jakie obowiązki mają dostawcy modeli AI?


AI Act przewiduje szereg obowiązków dla wszystkich dostawców GPAI, niezależnie od tego czy model jest z ryzykiem systemowym czy nie.


Dostawca musi więc:

  • sporządzić i na bieżąco aktualizować dokumentację techniczną modelu - powinna ona zawierać opis procesu trenowania modelu, to w jaki sposób był testowany i jakie są wyniki oceny modelu. Dokumentacja może być oparta o wzór opublikowany na stronie internetowej Komisji Europejskiej,

  • stworzyć i aktualizować informacje oraz dokumentację dla podmiotów, które tworzą własne systemy AI (tzw. downstream providers) w oparciu o model ogólnego przeznaczenia. Informacje ta powinny umożliwiać zrozumienie możliwości i ograniczeń modelu AI i wskazać w jaki sposób spełnia on wymogi AI Actu. Dodatkowo, dostawca powinien też opisać zadania, jakie dany model może wykonywać, informacje o licencji, dopuszczalne formaty danych wejściowych i wyjściowych, datę wydania ostatniej wersji, instrukcję integracji modelu z innymi rozwiązaniami itp.

  • szanować prawa autorskie twórców - AI Act nakazuje stworzyć politykę zapewniającą zgodność modelu AI (jego uczenia i działania) z przepisami dot. praw autorskich, w tym w szczególności respektującą zastrzeżenia twórców dot. niemożności wykorzystania ich utworów do uczenia algorytmów AI w ramach tzw. text and data mining, uregulowanego w innych unijnych przepisach,

  • opublikować streszczenie danych treningowych wykorzystywanych do trenowania modelu – szczegóły w tym zakresie zostaną przedstawione przez Urząd ds. AI.


Co z modelami Open Source?


Jednym z założeń AI Actu jest chęć promowania modeli open source. Dlatego też z niektórych obowiązków wskazanych powyżej zwolnieni są ci dostawcy modeli AI, które:

  • są udostępniane na podstawie bezpłatnych licencji otwartego oprogramowania, która umożliwia dostęp, wykorzystanie, zmianę i dystrybucję modelu,

  • których parametry, jak również informacje o architekturze modelu oraz informacje o wykorzystaniu modelu są podawane do wiadomości publicznej.


W praktyce ta nieco skomplikowana definicja obejmuje właśnie modele open source, co do których dystrybutor przygotował w miarę rzetelną i transparentną dokumentację.


Dostawcy modeli open source nie muszą tworzyć dokumentacji dot. systemu. Nadal jednak powinni posiadać polityki dot. ochrony praw autorskich oraz opublikować streszczenie danych treningowych.

Jeśli dany model AI jest modelem z ryzykiem systemowym to fakt rozpowszechniania go na licencji open source nic nie daje - i tak trzeba spełniać wszystkie obowiązki, tak jak w przypadku "zwykłych" modeli AI.


ree

Modele AI ogólnego przeznaczenia z ryzykiem systemowym


AI Act wyróżnia jeszcze jedną, specjalną kategorię modeli AI ogólnego przeznaczenia.


To tzw. "modele z ryzykiem systemowym" - chodzi o modele AI, które są uczone na bardzo dużej ilości danych. Zwykle są one najbardziej wydajne, tworzone przez największe podmioty i będą używane w różnych celach przez dużą liczbę użytkowników.

Za model z ryzykiem systemowym uznajemy taki model, który "ma zdolność dużego oddziaływania", czyli:

  1. został uznany za taki przez Komisję Europejską, przy uwzględnieniu takich kryteriów jak np. liczba użytkowników końcowych, jakość lub rozmiar zbioru danych, na których był uczony model albo liczbę obliczeń wykorzystanych do trenowania modelu,

  2. został uznany za taki z uwagi na gigantyczny zbiór danych, na którym był trenowany (tę weryfikację powinien przeprowadzić sam dostawca). AI Act uznaje, że do "dużego oddziaływania" dochodzi z automatu, w przypadku gdy mamy do czynienia z modelem AI ogólnego przeznaczenia, którego łączna liczba obliczeń mierzona w operacjach zmiennoprzecinkowych wykorzystywanych do jego trenowania jest większa niż 1025 .


Dostawca modelu AI musi niezwłocznie poinformować Komisję Europejską o tym, że spełnia powyższe przesłanki. Dodatkowo, w takim przypadku dostawca może przedstawić dodatkowe dowody, wskazujące na to, że jego model jednak nie powinien być uznany za taki, który stwarza systemowe ryzyko – ostateczna decyzja w tym zakresie należy jednak do Komisji.



Dodatkowe obowiązki nałożone na dostawców modeli AI ogólnego przeznaczenia z ryzykiem systemowym


Jeśli model zostanie zakwalifikowany jako systemowo ryzykowny (pełna nazwa: model AI ogólnego przeznaczenia z ryzykiem systemowym), lista obowiązków staje się dłuższa.


W takim przypadku dostawca dostawca powinien:

  • dokonać oceny modelu, w tym przeprowadzić zaawansowane testy – np.testy bezpieczeństwa, odporności i tzw. testy kontradyktoryjne (czyli sprawdzające podatność modelu na manipulacje),

  • zweryfikować jakie ryzyka mogą się wiązać z wykorzystaniem modelu AI,

  • rejestrować i dokumentować wystąpienie poważnych incydentów działania modelu AI.


Co jeszcze warto wiedzieć?


Jeśli dostawca pochodzi spoza Europejskiego Obszaru Gospodarczego (np. z USA) a jego model jest dostępny w UE – musi wyznaczyć pełnomocnika na terenie Unii. To on przechowuje dokumentację, kontaktuje się z organami i ponosi odpowiedzialność za zgodność z AI Act.


Co dalej?


Wdrożenie AI Act rozłożono w czasie, ale część dotycząca modeli ogólnego przeznaczenia zacznie obowiązywać już 2 sierpnia 2025 roku. To oznacza, że twórcy takich modeli mają już niewiele czasu na przygotowanie się do nowych obowiązków.


Jeżeli tworzysz modele AI, warto sprawdzić, czy Twój model wpisuje się w definicję GPAI albo (co gorsza) może zostać uznany za taki z ryzykiem systemowym. Oczywiście, jeśli Twoje rozwiązanie jest modelem AI ogólnego przeznaczenia, powinieneś/powinnaś prowadzić dokumentację techniczną zgodną z AI Act i śledzić prace nad kodeksami praktyk oraz normami – pomogą później łatwiej wykazać zgodność z przepisami.


Jeżeli masz dodatkowe pytania lub wątpliwości dot. GPAI, zachęcamy do kontaktu. Możesz to zrobić, wysyłając maila na adres kontakt@bytelaw.pl albo korzystając z formularza kontaktowego na www.bytelaw.pl.



Image by Scott Rodgerson

Wśród danych

Blog dla przedsiębiorców działających w cyfrowym świecie

michał nosowski

O Autorze:

Nazywam się Michał Nosowski i jestem radcą prawnym specjalizującym się w prawie nowych technologii. Stworzyłem tego bloga po to aby dzielić się swoją pasją - czyli badaniem styku świata IT oraz prawa.

 

W ramach kancelarii ByteLaw, której jestem współzałożycielem, pomagam głównie startupom, software house'om, freelancerom i ludziom zajmującym się marketingiem internetowym. Jeśli chcesz dowiedzieć się więcej, zapraszam do odwiedzenia strony Kancelarii.

O czym piszę najczęściej?  RODO | Umowy IT | Prawo autorskie | Prawo nowych technologii.

Zachęcam do obserwowania moich profili w mediach społecznościowych:

  • Facebook
  • LinkedIn
  • YouTube
Masz jakieś pytania? Możesz się ze mną skontaktować przez poniższy formularz

Wiadomość przesłana! Dziękuję :)

Projekt: 2023 Bytelaw Nosowski i Lewańska Radcowie Prawni spółka partnerska z siedzibą w Toruniu, adres: ul. Władysława Łokietka 5, 87-100 Toruń, zarejestrowana przez Sąd Rejonowy w Toruniu, VII Wydział Gospodarczy Krajowego Rejestru Sądowego pod numerem KRS 0000990835, NIP: 8792741761, REGON: 523038621.

bottom of page