Sztuczna inteligencja – pytania i odpowiedzi*

Sztuczna inteligencja – pytania i odpowiedzi

Dlaczego musimy uregulować wykorzystanie sztucznej inteligencji?

Unijny akt w sprawie sztucznej inteligencji jest pierwszym na świecie kompleksowym prawem dotyczącym sztucznej inteligencji. Jego celem jest przeciwdziałanie zagrożeniom dla zdrowia, bezpieczeństwa i praw podstawowych. Rozporządzenie chroni również demokrację, praworządność i środowisko.

Upowszechnienie systemów AI niesie ze sobą duży potencjał: może zapewnić korzyści społeczne, wzrost gospodarczy oraz pobudzić innowacyjność i zwiększyć globalną konkurencyjność UE. W niektórych przypadkach szczególne cechy niektórych systemów sztucznej inteligencji mogą jednak stwarzać nowe zagrożenia związane z bezpieczeństwem użytkowników, w tym bezpieczeństwem fizycznym, i prawami podstawowymi. Niektóre potężne modele sztucznej inteligencji, które są powszechnie stosowane, mogą nawet stwarzać ryzyko systemowe.

Prowadzi to do niepewności prawa i potencjalnie wolniejszego wdrażania technologii sztucznej inteligencji przez organy publiczne, przedsiębiorstwa i obywateli ze względu na brak zaufania. Rozbieżne działania regulacyjne organów krajowych groziłyby rozdrobnieniem rynku wewnętrznego.

W odpowiedzi na te wyzwania konieczne były działania ustawodawcze w celu zapewnienia dobrze funkcjonującego rynku wewnętrznego systemów sztucznej inteligencji, w którym odpowiednio uwzględniono zarówno korzyści, jak i ryzyko.

Do kogo ma zastosowanie akt w sprawie sztucznej inteligencji?

Ramy prawne będą miały zastosowanie zarówno do podmiotów publicznych, jak i prywatnych w UE i poza nią, o ile system sztucznej inteligencji zostanie wprowadzony do obrotu w Unii lub jego stosowanie będzie miało wpływ na osoby znajdujące się w UE.

Obowiązki te mogą mieć wpływ zarówno na dostawców (np. twórcę narzędzia do kontroli CV), jak i na podmioty wdrażające systemy sztucznej inteligencji (np. bank kupujący to narzędzie kontroli). Istnieją pewne wyjątki od rozporządzenia. Działania badawczo-rozwojowe i prototypowe, które mają miejsce przed wprowadzeniem systemu sztucznej inteligencji do obrotu, nie podlegają tym regulacjom. Ponadto zwolnione są również systemy sztucznej inteligencji, które są zaprojektowane wyłącznie do celów wojskowych, obronnych lub bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania.

Jakie są kategorie ryzyka?

Akt w sprawie sztucznej inteligencji wprowadza jednolite ramy we wszystkich państwach członkowskich UE, oparte na przyszłościowej definicji sztucznej inteligencji i podejściu opartym na analizie ryzyka:

  • Niedopuszczalne ryzyko: Bardzo ograniczony zestaw szczególnie szkodliwych zastosowań sztucznej inteligencji, które naruszają wartości UE, ponieważ naruszają prawa podstawowe i w związku z tym zostaną zakazane:
    • Wykorzystywanie podatności osób na zagrożenia, manipulowanie i stosowanie technik podprogowych;
    • Punktowa ocena społeczna do celów publicznych i prywatnych;
    • Indywidualna prognoza policyjna oparta wyłącznie na profilowaniu osób;
    • Nieukierunkowane usuwanie internetu lub CCTV do wizerunków twarzy w celu tworzenia lub rozbudowy baz danych;
    • Rozpoznawanie emocji w miejscu pracy i w instytucjach edukacyjnych, chyba że ze względów medycznych lub bezpieczeństwa (tj. monitorowanie poziomów zmęczenia pilota);
    • Kategoryzacja biometryczna osób fizycznych w celu wywnioskowania lub wywnioskowania z ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych lub orientacji seksualnej. Nadal możliwe będzie etykietowanie lub filtrowanie zbiorów danych oraz kategoryzacja danych w dziedzinie egzekwowania prawa;
    • Zdalna identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej przez organy ścigania, z zastrzeżeniem wąskich wyjątków (zob. poniżej).
  • Komisja wyda wytyczne dotyczące zakazów przed ich wejściem w życie 2 lutego 2025 r.
  • Wysokie ryzyko: Ograniczoną liczbę systemów sztucznej inteligencji określonych we wniosku, które mogą mieć negatywny wpływ na bezpieczeństwo ludzi lub ich prawa podstawowe (chronione na mocy Karty praw podstawowych Unii Europejskiej), uznaje się za systemy wysokiego ryzyka. Do aktu załączono wykazy systemów sztucznej inteligencji wysokiego ryzyka, które można poddać przeglądowi w celu dostosowania ich do ewolucji przypadków użycia sztucznej inteligencji.
  • Dotyczy to również związanych z bezpieczeństwem elementów produktów objętych prawodawstwem sektorowym Unii. Zawsze będą one uznawane za obarczone wysokim ryzykiem, gdy podlegają ocenie zgodności przeprowadzanej przez stronę trzecią na podstawie tych przepisów sektorowych.
  • Takie systemy sztucznej inteligencji wysokiego ryzyka obejmują na przykład systemy sztucznej inteligencji, które oceniają, czy ktoś jest w stanie skorzystać z określonego leczenia, uzyskać określoną pracę lub pożyczkę na zakup mieszkania. Inne systemy sztucznej inteligencji wysokiego ryzyka to systemy wykorzystywane przez policję do profilowania osób lub oceny ich ryzyka popełnienia przestępstwa (chyba że są zakazane na mocy art. 5). A systemy wysokiego ryzyka mogą również obejmować systemy sztucznej inteligencji obsługujące roboty, drony lub wyroby medyczne.
  • Szczególne ryzyko związane z przejrzystością: Aby zwiększyć zaufanie, ważne jest zapewnienie przejrzystości w zakresie wykorzystania sztucznej inteligencji. W związku z tym akt w sprawie sztucznej inteligencji wprowadza szczegółowe wymogi dotyczące przejrzystości w odniesieniu do niektórych zastosowań sztucznej inteligencji, na przykład w przypadku gdy istnieje wyraźne ryzyko manipulacji (np. za pomocą chatbotów) lub „deepfake”. Użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną.
  • Minimalne ryzyko: Większość systemów sztucznej inteligencji można opracowywać i wykorzystywać z zastrzeżeniem obowiązujących przepisów bez dodatkowych zobowiązań prawnych. Dostawcy tych systemów mogą dobrowolnie zdecydować się na stosowanie wymogów dotyczących wiarygodnej sztucznej inteligencji i zobowiązać się do przestrzegania dobrowolnych kodeksów postępowania.

Ponadto w akcie w sprawie sztucznej inteligencji uwzględniono ryzyko systemowe, które może wynikać z modeli sztucznej inteligencji ogólnego zastosowania, w tym dużych modeli sztucznej inteligencji generatywnej. Mogą one być wykorzystywane do wykonywania różnych zadań i stają się podstawą wielu systemów sztucznej inteligencji w UE. Niektóre z tych modeli mogą wiązać się z ryzykiem systemowym, jeżeli są bardzo sprawne lub szeroko stosowane. Na przykład potężne modele mogą powodować poważne wypadki lub być niewłaściwie wykorzystywane do szeroko zakrojonych cyberataków. Wiele osób może ucierpieć, jeżeli model rozprzestrzenia szkodliwe uprzedzenia w wielu zastosowaniach.

Jak mogę wiedzieć, czy system sztucznej inteligencji wiąże się z wysokim ryzykiem?

W akcie w sprawie sztucznej inteligencji określono solidną metodykę klasyfikacji systemów sztucznej inteligencji jako systemów wysokiego ryzyka. Ma to na celu zapewnienie pewności prawa przedsiębiorstwom i innym podmiotom.

Klasyfikacja ryzyka opiera się na zamierzonym przeznaczeniu systemu AI, zgodnie z obowiązującymi przepisami UE dotyczącymi bezpieczeństwa produktów. Oznacza to, że klasyfikacja zależy od funkcji pełnionej przez system sztucznej inteligencji oraz od konkretnego celu i sposobów korzystania z systemu.

Systemy sztucznej inteligencji można sklasyfikować jako systemy wysokiego ryzyka w dwóch przypadkach:

  • Jeżeli system sztucznej inteligencji jest wbudowany jako element bezpieczeństwa w produktach objętych obowiązującym prawodawstwem dotyczącym produktów (załącznik I) lub sam stanowi takie produkty. Może to być na przykład oprogramowanie medyczne oparte na sztucznej inteligencji.
  • Jeżeli system sztucznej inteligencji ma być wykorzystywany w przypadku użycia wysokiego ryzyka, wymieniony w załączniku III do aktu w sprawie sztucznej inteligencji. Wykaz obejmuje przypadki użycia w dziedzinach takich jak edukacja, zatrudnienie, egzekwowanie prawa lub migracja.

Komisja przygotowuje wytyczne dotyczące klasyfikacji wysokiego ryzyka, które zostaną opublikowane przed datą rozpoczęcia stosowania tych przepisów.

Jakie są przykłady przypadków użycia wysokiego ryzyka określonych w załączniku III?

Załącznik III obejmuje osiem obszarów, w których wykorzystanie sztucznej inteligencji może być szczególnie wrażliwe, i zawiera wykaz konkretnych przypadków użycia dla każdego obszaru. System sztucznej inteligencji klasyfikuje się jako system wysokiego ryzyka, jeżeli jest przeznaczony do wykorzystania w jednym z tych przypadków użycia.

Przykłady:

  • Systemy sztucznej inteligencji wykorzystywane jako elementy bezpieczeństwa w niektórych infrastrukturach krytycznych, na przykład w dziedzinie ruchu drogowego i dostaw wody, gazu, ogrzewania i energii elektrycznej;
  • Systemy sztucznej inteligencji wykorzystywane w kształceniu i szkoleniu zawodowym, np. do oceny efektów uczenia się i kierowania procesem uczenia się i monitorowaniem oszustw;
  • Systemy sztucznej inteligencji wykorzystywane w zarządzaniu zatrudnieniem i pracownikami oraz w dostępie do samozatrudnienia, np. do zamieszczania ukierunkowanych ogłoszeń o pracę, analizowania i filtrowania wniosków o pracę oraz do oceny kandydatów;
  • Systemy sztucznej inteligencji wykorzystywane w dostępie do podstawowych usług i świadczeń prywatnych i publicznych (np. opieki zdrowotnej), ocenie zdolności kredytowej osób fizycznych oraz ocenie ryzyka i ustalaniu cen w odniesieniu do ubezpieczenia na życie i ubezpieczenia zdrowotnego;
  • Systemy sztucznej inteligencji wykorzystywane w obszarach egzekwowania prawa, migracji i kontroli granicznej, o ile nie są one jeszcze zakazane, a także w sprawowaniu wymiaru sprawiedliwości i procesach demokratycznych;
  • Systemy sztucznej inteligencji wykorzystywane do identyfikacji biometrycznej, kategoryzacji biometrycznej i rozpoznawania emocji, o ile nie są zakazane.

Jakie obowiązki spoczywają na dostawcach systemów AI wysokiego ryzyka?

Przed wprowadzeniem systemu sztucznej inteligencji wysokiego ryzyka do obrotu w UE lub oddaniem go do użytku w inny sposób dostawcy muszą poddać go ocenie zgodności. Umożliwi im to wykazanie, że ich system spełnia obowiązkowe wymogi dotyczące wiarygodnej sztucznej inteligencji (np. jakość danych, dokumentacja i identyfikowalność, przejrzystość, nadzór ze strony człowieka, dokładność, cyberbezpieczeństwo i solidność). Ocenę tę należy powtórzyć, jeżeli system lub jego przeznaczenie są w znacznym stopniu zmodyfikowane.

Systemy sztucznej inteligencji, które służą jako związane z bezpieczeństwem elementy produktów objętych sektorowymi przepisami Unii, będą zawsze uznawane za systemy wysokiego ryzyka, jeżeli zostaną poddane ocenie zgodności przeprowadzanej przez osobę trzecią na podstawie tych przepisów sektorowych. Ponadto wszystkie systemy biometryczne, niezależnie od ich zastosowania, będą wymagały oceny zgodności przeprowadzanej przez stronę trzecią.

Dostawcy systemów AI wysokiego ryzyka będą również musieli wdrożyć systemy zarządzania jakością i ryzykiem, aby zapewnić zgodność z nowymi wymogami i zminimalizować ryzyko dla użytkowników i osób, na które systemy te wywierają wpływ, nawet po wprowadzeniu produktu do obrotu.

Systemy sztucznej inteligencji wysokiego ryzyka, które są wdrażane przez organy publiczne lub podmioty działające w ich imieniu, będą musiały zostać zarejestrowane w publicznej bazie danych UE, chyba że systemy te są wykorzystywane do celów egzekwowania prawa i migracji. Te ostatnie będą musiały być zarejestrowane w niepublicznej części bazy danych, która będzie dostępna wyłącznie dla właściwych organów nadzorczych.

Aby zapewnić zgodność w całym cyklu życia systemu sztucznej inteligencji, organy nadzoru rynku będą przeprowadzać regularne audyty i ułatwiać monitorowanie po wprowadzeniu do obrotu oraz umożliwią dostawcom dobrowolne zgłaszanie wszelkich poważnych incydentów lub naruszeń obowiązków w zakresie praw podstawowych, o których dowiedzieli się. W wyjątkowych przypadkach organy mogą przyznać wyłączenia w odniesieniu do konkretnych systemów sztucznej inteligencji wysokiego ryzyka, które mają być wprowadzane do obrotu.

W przypadku wystąpienia naruszenia dzięki wprowadzonym wymogom organy krajowe uzyskają dostęp do informacji niezbędnych do zbadania, czy system AI stosowano zgodnie z prawem.

Jaka byłaby rola normalizacji w akcie w sprawie sztucznej inteligencji?

Zgodnie z aktem w sprawie sztucznej inteligencji systemy sztucznej inteligencji wysokiego ryzyka będą podlegać szczególnym wymogom. Europejskie normy zharmonizowane będą odgrywać kluczową rolę we wdrażaniu tych wymogów.

W maju 2023 r. Komisja Europejska upoważniła europejskie organizacje normalizacyjne CEN i CENELEC do opracowania norm dotyczących tych wymogów wysokiego ryzyka. Mandat ten zostanie teraz zmieniony, aby dostosować go do ostatecznego tekstu aktu w sprawie sztucznej inteligencji.

Europejskie organizacje normalizacyjne będą miały czas do końca kwietnia 2025 r. na opracowanie i opublikowanie norm. Następnie Komisja oceni i ewentualnie zatwierdzi te normy, które zostaną opublikowane w Dzienniku Urzędowym UE. Po opublikowaniu normy te będą stanowić podstawę „domniemania zgodności” systemów sztucznej inteligencji opracowanych zgodnie z nimi.

W jaki sposób regulowane są modele sztucznej inteligencji ogólnego zastosowania?

Modele sztucznej inteligencji ogólnego zastosowania, w tym duże generatywnemodele sztucznej inteligencji, mogą być wykorzystywane do realizacji różnych zadań. Pojedyncze modele mogą być zintegrowane z dużą liczbą systemów sztucznej inteligencji.

Istotne jest, aby dostawca systemu sztucznej inteligencji łączącego model sztucznej inteligencji ogólnego zastosowania miał dostęp do wszystkich informacji niezbędnych do zapewnienia bezpieczeństwa i zgodności systemu z aktem w sprawie sztucznej inteligencji.

W związku z tym akt w sprawie sztucznej inteligencji zobowiązuje dostawców takich modeli do ujawniania określonych informacji dostawcom systemów niższego szczebla. Taka przejrzystość umożliwia lepsze zrozumienie tych modeli.

Dostawcy modeli muszą ponadto posiadać politykę zapewniającą przestrzeganie przez nich prawa autorskiego podczas szkolenia swoich modeli.

Ponadto niektóre z tych modeli mogą stwarzać ryzyko systemowe, ponieważ są bardzo przydatne lub powszechnie stosowane.

Obecnie uznaje się, że modele sztucznej inteligencji ogólnego przeznaczenia, które zostały przeszkolone z wykorzystaniem całkowitej mocy obliczeniowej wynoszącej ponad 10 '25 FLOP', stwarzały ryzyko systemowe. Komisja może zaktualizować lub uzupełnić ten próg w świetle postępu technologicznego i może również wyznaczyć inne modele jako stwarzające ryzyko systemowe w oparciu o dalsze kryteria (np. liczba użytkowników lub stopień autonomii modelu).

Dostawcy modeli o ryzyku systemowym są zobowiązani do oceny i ograniczania ryzyka, zgłaszania poważnych incydentów, przeprowadzania najnowocześniejszych testów i ocen modeli oraz zapewnienia cyberbezpieczeństwa swoich modeli.

Zachęca się dostawców do współpracy z Urzędem ds. Sztucznej Inteligencji i innymi zainteresowanymi stronami w celu opracowania kodeksu postępowania, określającego szczegółowe zasady, a tym samym zapewniającego bezpieczny i odpowiedzialny rozwój ich modeli. Kodeks ten powinien stanowić centralne narzędzie dla dostawców modeli sztucznej inteligencji ogólnego zastosowania w celu wykazania zgodności.

Dlaczego dla GPAI charakteryzujących się ryzykiem systemowym jest 10–625 FLOP odpowiednim progiem?

Flop jest wskaźnikiem zastępczym dla zdolności modeli, a dokładny próg FLOP może zostać zaktualizowany przez Komisję w górę lub w dół, np. w świetle postępów w obiektywnym pomiarze zdolności modelowych oraz zmian mocy obliczeniowej potrzebnej dla danego poziomu wydajności.

Możliwości modeli powyżej tego progu nie są jeszcze wystarczająco dobrze rozumiane. Mogą one stwarzać ryzyko systemowe, dlatego uzasadnione jest nałożenie na swoich dostawców dodatkowych obowiązków.

Jakie są obowiązki dotyczące oznakowania wodnego i etykietowania wyników sztucznej inteligencji określone w akcie w sprawie sztucznej inteligencji?

W akcie w sprawie sztucznej inteligencji określono zasady przejrzystości w odniesieniu do treści wytwarzanych przez generatywną sztuczną inteligencję w celu przeciwdziałania ryzyku manipulacji, wprowadzania w błąd i informacji wprowadzających w błąd.

Zobowiązuje on dostawców generatywnych systemów sztucznej inteligencji do oznaczania wyników sztucznej inteligencji w formacie nadającym się do odczytu maszynowego i zapewnienia ich wykrywalności jako sztucznie wygenerowane lub manipulowane. Rozwiązania techniczne muszą być skuteczne, interoperacyjne, solidne i niezawodne, o ile jest to technicznie wykonalne, z uwzględnieniem specyfiki i ograniczeń różnych rodzajów treści, kosztów wdrożenia i ogólnie uznanego stanu wiedzy technicznej, co może znaleźć odzwierciedlenie w odpowiednich normach technicznych.

Ponadto podmioty wdrażające generatywne systemy sztucznej inteligencji, które generują obrazy, treści audio lub wideo tworzące treści typu deepfake lub manipulują nimi, muszą w widoczny sposób ujawnić, że treści te zostały sztucznie wygenerowane lub manipulowane. Podmioty wdrażające system sztucznej inteligencji, który generuje tekst opublikowany w celu informowania społeczeństwa o sprawach leżących w interesie publicznym lub manipuluje nim, muszą również ujawnić, że tekst ten został sztucznie wygenerowany lub manipulowany. Obowiązek ten nie ma zastosowania w przypadku, gdy treści generowane przez sztuczną inteligencję zostały poddane procesowi weryfikacji przez człowieka lub kontroli redakcyjnej oraz gdy odpowiedzialność redakcyjną za publikację treści ponosi osoba fizyczna lub prawna.

Urząd ds. Sztucznej Inteligencji wyda wytyczne w celu zapewnienia dostawcom i podmiotom wdrażającym dalszych wytycznych dotyczących obowiązków określonych w art. 50, które zaczną obowiązywać dwa lata po wejściu w życie aktu w sprawie sztucznej inteligencji (w dniu 2 sierpnia 2026 r.).

Urząd ds. Sztucznej Inteligencji będzie również wspierać i ułatwiać opracowywanie kodeksów postępowania na szczeblu Unii w celu usprawnienia skutecznego wdrażania obowiązków związanych z wykrywaniem i etykietowaniem sztucznie generowanych lub zmanipulowanych treści.

Czy akt w sprawie sztucznej inteligencji jest dostosowany do przyszłych wyzwań?

Akt w sprawie sztucznej inteligencji ustanawia ramy prawne, które są dostosowane do nowych zmian, łatwe i szybkie do dostosowania oraz umożliwiają częstą ocenę.

Akt w sprawie sztucznej inteligencji określa wymogi i obowiązki zorientowane na wyniki, ale pozostawia konkretne rozwiązania techniczne i operacjonalizację normom branżowym i kodeksom postępowania, które są elastyczne, aby można je było dostosować do różnych przypadków użycia i umożliwić nowe rozwiązania technologiczne.

Ponadto same przepisy można zmienić w drodze aktów delegowanych i wykonawczych, na przykład w celu dokonania przeglądu wykazu przypadków użycia wysokiego ryzyka w załączniku III.

Ponadto przeprowadzane będą częste oceny niektórych części aktu w sprawie sztucznej inteligencji, a ostatecznie całego rozporządzenia, aby upewnić się, że konieczne są zmiany i zmiany.

W jaki sposób akt w sprawie sztucznej inteligencji reguluje kwestię identyfikacji biometrycznej?

Zabrania się stosowania zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej (tj. rozpoznawania twarzy za pomocą telewizji przemysłowej) do celów egzekwowania prawa. Państwa członkowskie mogą wprowadzić wyjątki na mocy prawa, które umożliwiłyby stosowanie zdalnej identyfikacji biometrycznej w czasie rzeczywistym w następujących przypadkach:

  • Działania w zakresie egzekwowania prawa związane z 16 określonymi bardzo poważnymi przestępstwami;
  • Ukierunkowane poszukiwanie konkretnych ofiar, uprowadzenie, handel ludźmi i wykorzystywanie seksualne osób oraz osób zaginionych; lub
  • Zapobiegania zagrożeniom dla życia lub bezpieczeństwa fizycznego osób lub reakcji na obecne lub przewidywalne zagrożenie atakiem terrorystycznym.

Każde wyjątkowe wykorzystanie podlegałoby uprzedniemu zatwierdzeniu przez organ sądowy lub niezależny organ administracyjny, którego decyzja jest wiążąca. W pilnych przypadkach zatwierdzenie może zostać udzielone w ciągu 24 godzin; w przypadku odrzucenia pozwolenia wszystkie dane i wyniki muszą zostać usunięte.

Musiałaby być poprzedzona wcześniejszą oceną skutków dla praw podstawowych i powinna zostać zgłoszona właściwemu organowi nadzoru rynku i organowi ochrony danych. W pilnych przypadkach można rozpocząć korzystanie z systemu bez rejestracji.

Wykorzystanie systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej (identyfikacji osób w uprzednio pobranych materiałach) osób objętych dochodzeniem wymaga uprzedniego zezwolenia organu sądowego lub niezależnego organu administracyjnego, a także powiadomienia odpowiedniego organu ochrony danych i nadzoru rynku.

Dlaczego potrzebne są szczegółowe przepisy dotyczące zdalnej identyfikacji biometrycznej?

Identyfikacja biometryczna może przybierać różne formy. Uwierzytelnianie i weryfikacja biometryczna, tj. odblokowanie smartfona lub weryfikacja/uwierzytelnianie na przejściach granicznych w celu sprawdzenia tożsamości danej osoby pod kątem jej dokumentów podróży (dopasowanie „jeden do jednego”) pozostaje nieuregulowana, ponieważ nie stanowią one istotnego zagrożenia dla praw podstawowych.

Z kolei identyfikacja biometryczna może być również wykorzystywana zdalnie, na przykład do identyfikacji osób znajdujących się w tłumie, co może mieć znaczący wpływ na prywatność w przestrzeni publicznej.

Na dokładność systemów rozpoznawania twarzy może mieć znaczący wpływ szeroki zakres czynników, takich jak jakość kamer, światło, odległość, baza danych, algorytm oraz pochodzenie etniczne, wiek lub płeć uczestnika. To samo dotyczy systemów rozpoznawania sposobu chodzenia i systemów rozpoznawania mowy oraz innych systemów biometrycznych. W wysoko zaawansowanych systemach stale zmniejsza się wskaźnik błędnego dopasowania.

Chociaż wskaźnik dokładności na poziomie 99 % może wydawać się ogólnie dobry, jest on bardzo ryzykowny, gdy wynik może prowadzić do podejrzenia niewinnej osoby. Nawet poziom błędu wynoszący 0,1 % może mieć znaczący wpływ w przypadku dużych populacji, na przykład na stacjach kolejowych.

W jaki sposób przepisy chronią prawa podstawowe?

Na szczeblu UE i państw członkowskich istnieje już silna ochrona praw podstawowych i niedyskryminacji, ale złożoność i nieprzejrzystość niektórych zastosowań sztucznej inteligencji („czarne skrzynki”) mogą stanowić problem.

Podejście do sztucznej inteligencji ukierunkowane na człowieka oznacza zapewnienie zgodności zastosowań AI z prawodawstwem dotyczącym praw podstawowych. Dzięki włączeniu wymogów w zakresie rozliczalności i przejrzystości do opracowywania systemów sztucznej inteligencji wysokiego ryzyka oraz poprawie zdolności w zakresie egzekwowania przepisów możemy zapewnić, aby systemy te od samego początku były projektowane z poszanowaniem prawa. W przypadku wystąpienia naruszeń dzięki wprowadzonym wymogom organy krajowe uzyskają dostęp do informacji niezbędnych do zbadania, czy stosowanie AI jest zgodne z prawem Unii.

Ponadto w akcie w sprawie sztucznej inteligencji wymaga się, aby niektórzy operatorzy systemów sztucznej inteligencji wysokiego ryzyka przeprowadzali ocenę skutków dla praw podstawowych.

Czym jest ocena wpływu na prawa podstawowe? Kto musi przeprowadzić taką ocenę i kiedy?

Dostawcy systemów sztucznej inteligencji wysokiego ryzyka muszą przeprowadzić ocenę ryzyka i zaprojektować system w sposób minimalizujący ryzyko dla zdrowia, bezpieczeństwa i praw podstawowych.

Niektóre zagrożenia dla praw podstawowych można jednak w pełni zidentyfikować jedynie ze świadomością kontekstu wykorzystywania systemu sztucznej inteligencji wysokiego ryzyka. Jeżeli systemy sztucznej inteligencji wysokiego ryzyka są wykorzystywane w szczególnie wrażliwych obszarach potencjalnej asymetrii mocy, konieczne są dodatkowe względy dotyczące takiego ryzyka.

W związku z tym podmioty wdrażające, które są podmiotami prawa publicznego lub podmiotami prywatnymi świadczącymi usługi publiczne, a także operatorzy oferujący systemy sztucznej inteligencji wysokiego ryzyka, którzy przeprowadzają oceny zdolności kredytowej lub oceny ceny i ryzyka w ubezpieczeniach na życie i ubezpieczenia zdrowotnego, przeprowadzają ocenę wpływu na prawa podstawowe i powiadamiają organ krajowy o wynikach.

W praktyce wiele podmiotów wdrażających będzie również musiało przeprowadzić ocenę skutków dla ochrony danych. Aby uniknąć istotnego pokrywania się w takich przypadkach, ocenę skutków dla praw podstawowych przeprowadza się w połączeniu z tą oceną skutków dla ochrony danych.

W jaki sposób w rozporządzeniu uwzględniono kwestię tendencyjności AI pod względem rasy i płci?

Bardzo ważne jest podkreślenie, że systemy sztucznej inteligencji nie tworzą ani nie powielają stronniczości. Systemy sztucznej inteligencji, jeżeli są odpowiednio zaprojektowane i wykorzystywane, mogą raczej przyczynić się do ograniczenia uprzedzeń i istniejącej dyskryminacji strukturalnej, a tym samym prowadzić do bardziej sprawiedliwych i niedyskryminacyjnych decyzji (np. w zakresie rekrutacji).

Nowe obowiązkowe wymogi dotyczące wszystkich systemów sztucznej inteligencji wysokiego ryzyka będą służyć temu celowi. Systemy sztucznej inteligencji muszą być solidne pod względem technicznym, aby zapewnić, że są odpowiednie do zakładanych celów i nie przynoszą stronniczych wyników, takich jak wyniki fałszywie dodatnie lub negatywne, które w nieproporcjonalny sposób dotykają grupy zmarginalizowane, w tym grupy ze względu na pochodzenie rasowe lub etniczne, płeć, wiek i inne chronione cechy.

Systemy wysokiego ryzyka będą również musiały zostać przeszkolone i przetestowane przy użyciu wystarczająco reprezentatywnych zbiorów danych, aby zminimalizować ryzyko niesprawiedliwych uprzedzeń zawartych w modelu i zapewnić, aby można było im zaradzić poprzez odpowiednie wykrywanie, korygowanie i inne środki ograniczające stronniczość.

Muszą one również być identyfikowalne i możliwe do skontrolowania, zapewniając przechowywanie odpowiedniej dokumentacji, w tym danych wykorzystywanych do trenowania algorytmu, który miałby kluczowe znaczenie w dochodzeniach ex post.

System zgodności przed wprowadzeniem ich do obrotu i po jego wprowadzeniu do obrotu będzie musiał zapewnić regularne monitorowanie tych systemów i szybkie reagowanie na potencjalne zagrożenia.

Kiedy akt w sprawie sztucznej inteligencji będzie w pełni stosowany?

Akt w sprawie sztucznej inteligencji będzie miał zastosowanie dwa lata po wejściu w życie w dniu 2 sierpnia 2026 r., z wyjątkiem następujących przepisów szczegółowych:

  • Zakazy, definicje i przepisy dotyczące umiejętności korzystania ze sztucznej inteligencji zaczną obowiązywać 6 miesięcy po wejściu w życie 2 lutego 2025 r.;
  • Przepisy dotyczące zarządzania i obowiązki dotyczące sztucznej inteligencji ogólnego przeznaczenia zaczną obowiązywać 12 miesięcy po wejściu w życie 2 sierpnia 2025 r.;
  • Obowiązki dotyczące systemów sztucznej inteligencji wysokiego ryzyka, które sklasyfikowano jako systemy wysokiego ryzyka, ponieważ są wbudowane w produkty regulowane wymienione w załączniku II (wykaz unijnego prawodawstwa harmonizacyjnego), mają zastosowanie 36 miesięcy po wejściu w życie w dniu 2 sierpnia 2027 r.

W jaki sposób akt w sprawie sztucznej inteligencji będzie egzekwowany?

W akcie w sprawie sztucznej inteligencji ustanowiono dwupoziomowy system zarządzania, w którym organy krajowe są odpowiedzialne za nadzorowanie i egzekwowanie przepisów dotyczących systemów sztucznej inteligencji, podczas gdy szczebel UE jest odpowiedzialny za zarządzanie modelami sztucznej inteligencji ogólnego zastosowania.

Aby zapewnić spójność i współpracę w całej UE, powołana zostanie Europejska Rada ds. Sztucznej Inteligencji (Rada ds. Sztucznej Inteligencji), złożona z przedstawicieli państw członkowskich, z wyspecjalizowanymi podgrupami ds. krajowych organów regulacyjnych i innych właściwych organów.

Urząd ds. Sztucznej Inteligencji, organ wykonawczy Komisji do celów aktu w sprawie sztucznej inteligencji, zapewni Radzie ds. Sztucznej Inteligencji strategiczne wytyczne.

Ponadto w akcie w sprawie sztucznej inteligencji ustanowiono dwa organy doradcze w celu zapewnienia wkładu ekspertów: panel naukowy i forum doradcze. Organy te będą oferować cenne spostrzeżenia ze strony zainteresowanych stron i interdyscyplinarnych środowisk naukowych, przyczyniając się do podejmowania decyzji i zapewniając zrównoważone podejście do rozwoju sztucznej inteligencji.

Dlaczego potrzebna jest Europejska Rada ds. Sztucznej Inteligencji i co zrobi?

Europejska Rada ds. Sztucznej Inteligencji składa się z przedstawicieli wysokiego szczebla państw członkowskich i Europejskiego Inspektora Ochrony Danych. Jako kluczowy doradca Rada ds. Sztucznej Inteligencji zapewnia wytyczne we wszystkich kwestiach związanych z polityką w zakresie sztucznej inteligencji, w szczególności z regulacją w zakresie sztucznej inteligencji, polityką w zakresie innowacji i doskonałości oraz współpracą międzynarodową w zakresie sztucznej inteligencji.

Rada ds. Sztucznej Inteligencji odgrywa kluczową rolę w zapewnianiu sprawnego, skutecznego i zharmonizowanego wdrożenia aktu w sprawie sztucznej inteligencji. Rada będzie pełnić rolę forum, na którym organy regulacyjne ds. sztucznej inteligencji, a mianowicie Urząd ds. Sztucznej Inteligencji, organy krajowe i EPDS, mogą koordynować spójne stosowanie aktu w sprawie sztucznej inteligencji.

Jakie kary przewidziano za naruszenie przepisów?

Państwa członkowskie będą musiały ustanowić skuteczne, proporcjonalne i odstraszające kary za naruszenia przepisów dotyczących systemów sztucznej inteligencji.

W rozporządzeniu określono maksymalne wysokości kar, które należy uwzględnić:

  • Do 35 mln EUR lub 7 % całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego (w zależności od tego, która z tych wartości jest wyższa) w przypadku naruszeń zakazanych praktyk lub niezgodności związanych z wymogami dotyczącymi danych;
  • Do 15 mln EUR lub 3 % całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego w przypadku nieprzestrzegania któregokolwiek z pozostałych wymogów lub obowiązków określonych w rozporządzeniu;
  • Do 7,5 mln EUR lub 1,5 % całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego w przypadku dostarczania nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organom krajowym w odpowiedzi na wniosek;
  • Dla każdej kategorii naruszeń próg byłby niższy z dwóch kwot dla MŚP i wyższy dla innych przedsiębiorstw.

Komisja może również egzekwować przepisy dotyczące dostawców modeli sztucznej inteligencji ogólnego przeznaczenia za pomocą kar pieniężnych, biorąc pod uwagę następujący próg:

  • Do 15 mln EUR lub 3 % całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego w przypadku niewypełnienia któregokolwiek z obowiązków lub środków wymaganych przez Komisję na podstawie rozporządzenia.

Oczekuje się, że instytucje, agencje lub organy UE będą dawać przykład, dlatego też będą podlegać przepisom i ewentualnym karom. Europejski Inspektor Ochrony Danych będzie uprawniony do nakładania na niego grzywien w przypadku nieprzestrzegania przepisów.

W jaki sposób zostanie sporządzony kodeks praktyk w zakresie sztucznej inteligencji ogólnego celu?

Opracowanie pierwszego kodeksu odbywa się po pluralistycznym i przejrzystym procesie. W celu ułatwienia wieloetapowego procesu opracowywania kodeksu praktyk, w skład którego wejdą wszyscy zainteresowani i kwalifikujący się dostawcy modeli sztucznej inteligencji ogólnego zastosowania, dostawcy niższego szczebla włączający model sztucznej inteligencji ogólnego zastosowania do swojego systemu sztucznej inteligencji, inne organizacje branżowe, inne organizacje zainteresowanych stron, takie jak organizacje społeczeństwa obywatelskiego lub podmiotów praw autorskich, a także środowiska akademickie i inni niezależni eksperci.

Urząd ds. Sztucznej Inteligencji ogłosił zaproszenie do wyrażenia zainteresowania udziałem w opracowaniu pierwszego kodeksu postępowania. Równolegle z niniejszym zaproszeniem do wyrażenia zainteresowania rozpoczyna się konsultacje z udziałem wielu zainteresowanych stron w celu zebrania opinii i uwag wszystkich zainteresowanych stron na temat pierwszego kodeksu postępowania. Odpowiedzi i odpowiedzi będą stanowić podstawę pierwszego iteracji kodeksu postępowania. Od samego początku kodeks opiera się zatem na szerokim spektrum perspektyw i wiedzy fachowej.

Sesja plenarna będzie się składać z czterech grup roboczych, aby umożliwić ukierunkowane dyskusje na konkretne tematy istotne dla szczegółowego określenia obowiązków dostawców modeli sztucznej inteligencji ogólnego zastosowania i modeli sztucznej inteligencji ogólnego zastosowania wiążących się z ryzykiem systemowym. Uczestnicy sesji plenarnej mogą wybrać jedną lub więcej grup roboczych, do których chcą się zaangażować. Posiedzenia odbywają się wyłącznie online.

Biuro ds. Sztucznej Inteligencji wyznaczy przewodniczących i, w stosownych przypadkach, wiceprzewodniczących każdej z czterech grup roboczych zgromadzenia plenarnego, wybranych spośród zainteresowanych niezależnych ekspertów. Przewodniczący podsumują opinie i komentarze uczestników sesji plenarnych w celu wielokrotnego opracowania pierwszego kodeksu postępowania.

Jako główni adresaci kodeksu dostawcy modeli sztucznej inteligencji ogólnego zastosowania zostaną zaproszeni do udziału w specjalnych warsztatach mających na celu wniesienie wkładu w informowanie o każdej iteracyjnej rundzie redakcyjnej, oprócz udziału w posiedzeniach plenarnych.

Po 9 miesiącach ostateczna wersja pierwszego kodeksu postępowania zostanie przedstawiona na zamykającej sesji plenarnej, która ma się odbyć w kwietniu i opublikowana. Zamykające posiedzenie plenarne daje dostawcom modelu sztucznej inteligencji ogólnego zastosowania możliwość wyrażenia się, czy zamierzają skorzystać z kodeksu.

W jaki sposób kodeks postępowania dla dostawców modeli sztucznej inteligencji ogólnego zastosowania służy jako główne narzędzie służące zapewnieniu zgodności z przepisami?

Po zakończeniu procesu opracowywania kodeksu postępowania Urząd ds. Sztucznej Inteligencji i Rada ds. Sztucznej Inteligencji ocenią adekwatność kodeksu i opublikują swoją ocenę. Po przeprowadzeniu tej oceny Komisja może podjąć decyzję o zatwierdzeniu kodeksu postępowania i nadaniu mu ogólnej ważności w Unii w drodze aktów wykonawczych. Jeżeli do czasu rozpoczęcia stosowania rozporządzenia Urząd ds. Sztucznej Inteligencji nie uzna kodeksu postępowania za odpowiedni, Komisja może ustanowić wspólne zasady wdrażania odpowiednich obowiązków.

Dostawcy modeli sztucznej inteligencji ogólnego zastosowania mogą zatem opierać się na kodeksie postępowania w celu wykazania zgodności z obowiązkami określonymi w akcie w sprawie sztucznej inteligencji.

Zgodnie z aktem w sprawie sztucznej inteligencji kodeks postępowania powinien obejmować cele, środki i, w stosownych przypadkach, kluczowe wskaźniki skuteczności działania.

Dostawcy przestrzegający kodeksu powinni regularnie składać Urzędowi ds. Sztucznej Inteligencji sprawozdania na temat wdrażania wprowadzonych środków i ich wyników, w tym – w stosownych przypadkach – mierzonych na podstawie kluczowych wskaźników skuteczności działania.

Ułatwia to egzekwowanie przepisów przez Urząd ds. Sztucznej Inteligencji, którego podstawę stanowią uprawnienia przyznane Komisji na mocy aktu w sprawie sztucznej inteligencji. Obejmuje to możliwość przeprowadzania ocen modeli sztucznej inteligencji ogólnego zastosowania, zwracania się do dostawców modeli o informacje i środki oraz nakładania sankcji.

W stosownych przypadkach Urząd ds. Sztucznej Inteligencji będzie wspierał i ułatwiał przegląd i dostosowanie kodeksu w celu odzwierciedlenia postępu technologicznego i najnowocześniejszego.

Po opublikowaniu i ocenie przez Urząd ds. Sztucznej Inteligencji normy zharmonizowanej jako odpowiednia do pokrycia odpowiednich obowiązków, zgodność z europejską normą zharmonizowaną powinna zapewniać dostawcom domniemanie zgodności.

Dostawcy modeli sztucznej inteligencji ogólnego przeznaczenia powinni ponadto być w stanie wykazać zgodność z przepisami za pomocą odpowiednich alternatywnych środków, jeżeli kodeksy postępowania lub normy zharmonizowane nie są dostępne lub zdecydują się na nich nie polegać.

Czy akt w sprawie sztucznej inteligencji zawiera przepisy dotyczące ochrony środowiska i zrównoważonego rozwoju?

Celem wniosku w sprawie sztucznej inteligencji jest przeciwdziałanie zagrożeniom dla bezpieczeństwa i praw podstawowych, w tym podstawowego prawa do wysokiego poziomu ochrony środowiska. Środowisko jest również jednym z wyraźnie wymienionych i chronionych interesów prawnych.

Komisja proszona jest o zwrócenie się do europejskich organizacji normalizacyjnych o opracowanie dokumentu normalizacyjnego dotyczącego procesów sprawozdawczych i dokumentacyjnych w celu poprawy wydajności zasobów systemów sztucznej inteligencji, takich jak zmniejszenie zużycia energii i innych zasobów przez system sztucznej inteligencji wysokiego ryzyka w jego cyklu życia, oraz w sprawie efektywnego energetycznie rozwoju modeli sztucznej inteligencji ogólnego zastosowania.

Ponadto wzywa się Komisję do przedłożenia w terminie dwóch lat od daty rozpoczęcia stosowania rozporządzenia, a następnie co cztery lata, sprawozdania z przeglądu postępów w opracowywaniu dokumentów normalizacyjnych dotyczących energooszczędnego rozwoju modeli ogólnego przeznaczenia oraz do oceny potrzeby dalszych środków lub działań, w tym wiążących środków lub działań.

Ponadto dostawcy modeli sztucznej inteligencji ogólnego zastosowania, którzy są przeszkoleni w zakresie dużych ilości danych, a tym samym podatni na wysokie zużycie energii, są zobowiązani do ujawniania zużycia energii. W przypadku modeli sztucznej inteligencji ogólnego zastosowania wiążących się z ryzykiem systemowym należy ponadto ocenić efektywność energetyczną.

Komisja jest uprawniona do opracowania odpowiedniej i porównywalnej metodyki pomiaru w odniesieniu do tych obowiązków w zakresie ujawniania informacji.

W jaki sposób nowe przepisy mogą wspierać innowacje?

Ramy regulacyjne mogą zwiększyć upowszechnienie AI na dwa sposoby. Z jednej strony, zwiększenie zaufania użytkowników zwiększy popyt na systemy AI wykorzystywane przez przedsiębiorstwa i organy publiczne. Z drugiej strony, dzięki zwiększeniu pewności prawa i harmonizacji przepisów dostawcy AI zyskają dostęp do większych rynków, na których będą mogli zaoferować produkty, które użytkownicy i konsumenci doceniają i chętnie kupują. Przepisy będą miały zastosowanie tylko wtedy, gdy będzie to absolutnie konieczne, i w sposób minimalizujący obciążenie podmiotów gospodarczych, przy nierozbudowanej strukturze zarządzania.

Akt w sprawie sztucznej inteligencji umożliwia ponadto tworzenie piaskownic regulacyjnych i testów w warunkach rzeczywistych, które zapewniają kontrolowane środowisko do testowania innowacyjnych technologii przez ograniczony czas, wspierając tym samym innowacje przedsiębiorstw, MŚP i przedsiębiorstw typu start-up zgodnie z aktem w sprawie sztucznej inteligencji. Działania te, wraz z innymi środkami, takimi jak dodatkowe sieci centrów doskonałości sztucznej inteligencji i partnerstwo publiczno-prywatne w dziedzinie sztucznej inteligencji, danych i robotyki, a także dostęp do centrów innowacji cyfrowych oraz ośrodków testowo-doświadczalnych pomogą stworzyć odpowiednie warunki ramowe dla przedsiębiorstw do opracowywania i wdrażania sztucznej inteligencji.

Testowanie systemów sztucznej inteligencji wysokiego ryzyka w warunkach rzeczywistych może trwać maksymalnie 6 miesięcy (który może zostać przedłużony o kolejne 6 miesięcy). Przed przeprowadzeniem badania należy sporządzić plan i przedłożyć go organowi nadzoru rynku, który musi zatwierdzić plan i szczegółowe warunki badań, z domyślną dorozumianą aprobatą, jeżeli nie udzielono odpowiedzi w terminie 30 dni. Badanie może podlegać niezapowiedzianym inspekcjom przeprowadzanym przez organ.

Testy w warunkach rzeczywistych mogą być przeprowadzane wyłącznie przy szczególnych zabezpieczeniach, np. gdy użytkownicy systemów w warunkach rzeczywistych muszą wyrazić świadomą zgodę, testy nie mogą mieć na nich żadnego negatywnego wpływu, wyniki muszą być odwracalne lub lekceważone, a ich dane muszą zostać usunięte po zakończeniu badania. Szczególną ochronę przyznaje się słabszym grupom społecznym, tj. ze względu na ich wiek, niepełnosprawność fizyczną lub umysłową.

Jaką rolę odgrywa pakt na rzecz sztucznej inteligencji we wdrażaniu aktu w sprawie sztucznej inteligencji?

Zainicjowany przez komisarza Bretona w maju 2023 r. pakt na rzecz sztucznej inteligencji ma na celu zwiększenie zaangażowania między Urzędem ds. Sztucznej Inteligencji a organizacjami (filar I) oraz zachęcenie branży do dobrowolnego zobowiązania się do rozpoczęcia wdrażania wymogów aktu w sprawie sztucznej inteligencji przed upływem terminu prawnego (filar II).

W szczególności w ramach filaru I uczestnicy będą przyczyniać się do tworzenia społeczności opartej na współpracy, dzieląc się swoimi doświadczeniami i wiedzą. Obejmuje to warsztaty organizowane przez Urząd ds. Sztucznej Inteligencji, które zapewniają uczestnikom lepsze zrozumienie aktu w sprawie sztucznej inteligencji, ich obowiązków i sposobu przygotowania się do jego wdrożenia. Z kolei Urząd ds. Sztucznej Inteligencji może zebrać informacje na temat najlepszych praktyk i wyzwań, przed którymi stoją uczestnicy.

W ramach filaru II organizacje zachęca się do proaktywnego ujawniania procesów i praktyk, które wdrażają, aby przewidywać przestrzeganie przepisów, poprzez dobrowolne zobowiązania. Zobowiązania mają być „deklaracjami zaangażowania” i będą obejmować działania (planowane lub w trakcie realizacji) mające na celu spełnienie niektórych wymogów aktu w sprawie sztucznej inteligencji.

Większość przepisów aktu w sprawie sztucznej inteligencji (np. niektóre wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka) będzie miała zastosowanie pod koniec okresu przejściowego (tj. czasu między wejściem w życie a datą rozpoczęcia stosowania).

W tym kontekście i w ramach paktu na rzecz AI Urząd ds. Sztucznej Inteligencji wzywa wszystkie organizacje do proaktywnego przewidywania i wdrożenia niektórych kluczowych przepisów aktu w sprawie sztucznej inteligencji w celu jak najszybszego ograniczenia zagrożeń dla zdrowia, bezpieczeństwa i praw podstawowych.

W następstwie zaproszenia ogłoszonego w listopadzie 2023 r. ponad 700 organizacji wyraziło już zainteresowanie przystąpieniem do inicjatywy paktu na rzecz sztucznej inteligencji. Pierwsza sesja informacyjna odbyła się online 6 maja, w której wzięło udział 300 uczestników. Oficjalne podpisanie dobrowolnych zobowiązań zaplanowano na jesień 2024 r. W pierwszym tygodniu września odbędą się warsztaty na temat paktu na rzecz sztucznej inteligencji.

Jaki jest międzynarodowy wymiar podejścia UE?

Sztuczna inteligencja ma konsekwencje i wyzwania wykraczające poza granice; w związku z tym ważna jest współpraca międzynarodowa. Urząd ds. Sztucznej Inteligencji odpowiada za międzynarodowe zaangażowanie Unii Europejskiej w dziedzinie sztucznej inteligencji na podstawie aktu w sprawie sztucznej inteligencji i skoordynowanego planu w sprawie sztucznej inteligencji. UE dąży do promowania odpowiedzialnego zarządzania sztuczną inteligencją i dobrego zarządzania nią we współpracy z partnerami międzynarodowymi oraz zgodnie z wielostronnym systemem opartym na zasadach i wartościami, których broni.

UE angażuje się dwustronnie i wielostronnie w promowanie godnej zaufania, ukierunkowanej na człowieka i etycznej sztucznej inteligencji. W związku z tym UE uczestniczy w wielostronnych forach, na których omawiana jest sztuczna inteligencja – w szczególności G-7, G-20, OECD, Rada Europy, Globalne Partnerstwo w sprawie AI i Organizacja Narodów Zjednoczonych – oraz UE utrzymuje bliskie stosunki dwustronne np. z Kanadą, Stanami Zjednoczonymi, Indiami, Japonią, Koreą Południową, Singapurem oraz regionem Ameryki Łacińskiej i Karaibów.

*Zaktualizowano 1 sierpnia 2024 r.


Zařazenočt 01.08.2024 12:08:00
ZdrojEvropská komise pl
Originálec.europa.eu/commission/presscorner/api/documents?reference=QANDA/21/1683&language=pl
langpl
guid/QANDA/21/1683/

Související témata

Zobrazit sloupec 

Kalkulačka - Výpočet

Výpočet čisté mzdy

Důchodová kalkulačka

Přídavky na dítě

Příspěvek na bydlení

Rodičovský příspěvek

Životní minimum

Hypoteční kalkulačka

Povinné ručení

Banky a Bankomaty

Úrokové sazby, Hypotéky

Směnárny - Euro, Dolar

Práce - Volná místa

Úřad práce, Mzda, Platy

Dávky a příspěvky

Nemocenská, Porodné

Podpora v nezaměstnanosti

Důchody

Investice

Burza - ČEZ

Dluhopisy, Podílové fondy

Ekonomika - HDP, Mzdy

Kryptoměny - Bitcoin, Ethereum

Drahé kovy

Zlato, Investiční zlato, Stříbro

Ropa - PHM, Benzín, Nafta, Nafta v Evropě

Podnikání

Města a obce, PSČ

Katastr nemovitostí

Katastrální úřady

Ochranné známky

Občanský zákoník

Zákoník práce

Stavební zákon

Daně, formuláře

Další odkazy

Auto - Cena, Spolehlivost

Registr vozidel - Technický průkaz, eTechničák

Finanční katalog

Volby, Mapa webu

English version

Czech currency

Prague stock exchange


Ochrana dat, Cookies

 

Copyright © 2000 - 2024

Kurzy.cz, spol. s r.o., AliaWeb, spol. s r.o.