AI Act – regulacja przyjęta przez Radę Unii Europejskiej

0
(0)

AI Act, czyli akt prawny dotyczący sztucznej inteligencji, został przyjęty przez Radę Unii Europejskiej 21 maja. Oto kluczowe informacje na temat tej regulacji:

  • Zakres stosowania: AI Act ma zastosowanie do różnych podmiotów, zarówno prywatnych, jak i publicznych, które rozwijają lub wykorzystują systemy AI na jednolitym rynku UE1.
  • Podejście oparte na ryzyku: Ustawa wprowadza podejście oparte na ryzyku, co oznacza, że im wyższe ryzyko szkody dla społeczeństwa, tym bardziej rygorystyczne zasady będą miały zastosowanie.
  • Klasyfikacja systemów AI: Systemy AI są klasyfikowane według ryzyka. Systemy o ograniczonym ryzyku będą podlegać bardzo lekkim obowiązkom w zakresie przejrzystości, podczas gdy systemy wysokiego ryzyka będą autoryzowane, ale pod warunkiem spełnienia określonych wymagań i obowiązków, aby uzyskać dostęp do rynku UE.
  • Zakazane praktyki AI: Niektóre praktyki AI, takie jak manipulacja behawioralna i ocena społeczna, będą zakazane w UE ze względu na nieakceptowalne ryzyko.
  • Wyjątki: AI Act przewiduje wyjątki, takie jak systemy używane wyłącznie do celów wojskowych i obronnych oraz do celów badawczych.

Ponieważ często na tym blogu wspominamy o ryzyku, to przedstawiam tu krótkie podsumowanie wskazanych w regulacji czterech poziomu ryzyka stosowanych systemów korzystających z narzędzi AI:

  1. Niedopuszczalne ryzyko: Systemy AI, które są uznane za niedopuszczalne, są zakazane. Dotyczy to systemów, które stosują techniki manipulacyjne lub oszukańcze, aby zakłócić zachowanie i utrudnić świadome podejmowanie decyzji, powodując znaczące szkody.
  2. Wysokie ryzyko: Systemy AI klasyfikowane jako wysokiego ryzyka podlegają rygorystycznym wymaganiom projektowym i operacyjnym. Są one autoryzowane do użytku na rynku UE, ale muszą spełniać określone wymagania i obowiązki.
  3. Ograniczone ryzyko: Systemy AI o ograniczonym ryzyku podlegają lżejszym obowiązkom w zakresie przejrzystości. Deweloperzy i użytkownicy muszą zapewnić, że końcowi użytkownicy są świadomi interakcji z AI, np. w przypadku chatbotów czy deepfake’ów.
  4. Minimalne lub brak ryzyka: Systemy AI prezentujące minimalne lub brak ryzyka nie podlegają dalszym obowiązkom regulacyjnym. Większość aplikacji AI dostępnych na jednolitym rynku UE, takich jak gry wideo z AI czy filtry spamu, należy do tej kategorii.

Podział ten ma na celu zapewnienie, że poziom nadzoru jest odpowiedni do poziomu ryzyka. Dzięki temu, AI Act ma wspierać rozwój i przyjmowanie bezpiecznych i godnych zaufania systemów AI, jednocześnie chroniąc podstawowe prawa obywateli UE. Ciekawe podsumowanie regulacji znajdziecie w tym miejscu.

Na temat AI rozpisują się teraz wszyscy, więc może nie będę się tu zbyt wymądrzał, są lepsi specjaliści ode mnie w tym temacie 😉. Jednym z nich jest m.in. prof. Andrzej Dragan, który miał swój bardzo ciekawy wykład na Kongresie Forum Technologii Bankowych (22-23 maj br) w studiu kongresowym BANK.pl.

Zapadły mi w pamięć dwa cytaty z tej rozmowy, a mianowicie:

(…) „Ostatnio wiceprezes Google’a powiedział, że zamiast Innovate, to Europa się skupia na Regulate. Pewnie efekt będzie taki, że technologia, która do nas będzie docierać z zagranicy, będzie ograniczona. Po prostu dostaniemy okrojoną wersję algorytmów, bo nie będą one w całości spełniać naszych wymogów, a Amerykanie czy Chińczycy będą mieli algorytmy czy technologie bardziej zaawansowane. My będziemy mieli tę uproszczoną wersję dla przeregulowanego rynku.” (…)

(…) „My możemy cieszyć się wyższością moralną, ale za dwa lata zostaniemy z ręką w nocniku, bo technologia, która się teraz tworzy, zapewnia sukces w wielu dziedzinach gospodarczych, finansowych i tak dalej, więc jest to gra ryzykowna, dlatego że jako jedyni samoograniczamy się” (…)

To coraz częściej zgłaszane obawy – Europa skupia się na regulacjach, a nie na rozwoju technologii. Tak, to prawda – rozwój technologii niesie ze sobą pewne ryzyko, ale czy tak dużo pracując nad tym ograniczaniem ryzyka nie zamykamy sobie drogi rozwoju? I jak z naszą konkurencją – czy też będzie taka etyczna i taka wstrzemięźliwa w swoich działaniach?

W wyżej wskazanym linku jest tylko kilka minut rozmowy z profesorem, polecam Jego wywiad/rozmowę na YT – blisko 50 min bardzo ciekawych przemyśleń o rozwoju AI.

Grzegorz Pająk

How useful was this post?

Click on a star to rate it!

Average rating 0 / 5. Vote count: 0

No votes so far! Be the first to rate this post.

We are sorry that this post was not useful for you!

Let us improve this post!

Tell us how we can improve this post?

Add a Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *