Unia Europejska jest coraz bliżej ukończenia AI Act

Unia Europejska jest coraz bliżej ukończenia AI Act

Unia Europejska zbliża się do rozstrzygnięcia spornych kwestii w celu osiągnięcia konsensusu w sprawie AI Act. Ten akt prawny prawdopodobnie będzie jednym z najbardziej kompleksowych przepisów regulujących wykorzystanie i handel sztuczną inteligencją.

  • UE zbliża się do rozstrzygnięcia problematycznych kwestii w sprawie ustawy o sztucznej inteligencji.
  • Ustawodawcy w UE dążą do przyjęcia przepisów przed wyborami w czerwcu 2024 roku.
  • Zgodnie z unijną ustawą o sztucznej inteligencji, systemy AI są podzielone na cztery kategorie zagrożeń.

Już trzeci dzień z rzędu trwają negocjacje pomiędzy Parlamentem Europejskim, Komisją Europejską i 27 państwami członkowskimi Unii Europejskiej, mające na celu rozstrzygnięcie spornych kwestii w przepisach.

W świetle rosnącego wykorzystania generatywnej sztucznej inteligencji bardzo ważne jest, aby ustawodawcy szybko podjęli działania w celu uregulowania kwestii AI. Prawodawcy w UE chcą przyjąć przepisy przed wyborami w czerwcu 2024 roku.

Jednym z pierwszych obszarów, który rozpoczął opracowywanie przepisów dotyczących technologii AI w 2021 r., była UE. Zgodnie z oświadczeniem Parlamentu Europejskiego, ma on na celu zapewnienie, że sztuczna inteligencja chroni prawa podstawowe, demokrację, praworządność i równowagę środowiskową, jednocześnie pobudzając innowacje i czyniąc Europę liderem w tej dziedzinie.

Rozwiązywanie ważnych problemów

Zgodnie z unijną ustawą o sztucznej inteligencji systemy AI są podzielone na cztery kategorie zagrożeń: minimalne, ograniczone, wysokie i niedopuszczalne ryzyko. Zgodnie z artykułem Reutersa, wolne i otwarte licencje AI będą prawdopodobnie odporne na regulacje, chyba że znajdą się w kategorii wysokiego ryzyka.

Dostawcy systemów sztucznej inteligencji ogólnego przeznaczenia (GPAIS) będą musieli opublikować kompleksowe opisy treści szkoleniowych, a Komisja Europejska będzie prowadzić listę modeli sztucznej inteligencji, które stanowią ryzyko systemowe.

Początkowo Francja, Niemcy i Włochy sprzeciwiały się temu, ponieważ chciały wdrożyć model samoregulacji dla GPAIS. Zgodnie z artykułem Reutersa uważały one, że surowe zasady ograniczyłyby zdolność europejskich przedsiębiorstw do konkurowania z firmami z innych regionów.

Wykorzystanie systemów sztucznej inteligencji przez organy ścigania do biometrycznej identyfikacji osób w publicznie dostępnych miejscach jest kolejnym kontrowersyjnym tematem wśród parlamentarzystów UE.

Według raportu Bloomberga, państwa członkowskie UE chcą mieć ramy, które pozwoliłyby im wykorzystywać systemy oparte na sztucznej inteligencji do celów bezpieczeństwa, nawet jeśli Parlament Europejski poparł całkowity zakaz w celu ochrony praw podstawowych obywateli.

Ryzyko kontra wzrost

Ustawodawcom trudno jest znaleźć równowagę między ochroną ludzi przed różnymi zagrożeniami związanymi z technologią a wykorzystaniem systemów sztucznej inteligencji do promowania postępu społecznego i gospodarczego.

Miliarder Elon Musk, założyciel SpaceX i Tesli, jest jednym z praktyków AI, którzy wielokrotnie wyrażali obawy, że sztuczna inteligencja stanowi jedno z największych zagrożeń dla ludzkości.

Ogólne rozporządzenie o ochronie danych (RODO), które zostało stworzone przez UE w przeszłości, ustanowiło precedens i posłużyło jako wzór dla innych krajów opracowujących przepisy chroniące przed niewłaściwym wykorzystaniem danych osobowych należących do ich mieszkańców.

Tejasvi Addagada, starszy wiceprezes i dyrektor ds. zarządzania danymi przedsiębiorstwa w HDFC Bank, stwierdził, że ustawa UE o sztucznej inteligencji miałaby wpływ na innowacyjność i konkurencyjność UE w dziedzinie AI, a także na ochronę podstawowych praw i wartości obywateli i mieszkańców UE. Dodał, że mogłoby to zwiększyć akceptację społeczną i absorpcję rozwiązań AI poprzez wspieranie zaufania, pewności prawnej i standardów etycznych w zakresie rozwoju i wykorzystania AI.

Addagada twierdzi jednak, że unijna ustawa o sztucznej inteligencji może nakładać nowe wydatki, zobowiązania i przeszkody na dostawców sztucznej inteligencji i konsumentów, co utrudniłoby innowacje i zdolność UE do konkurowania na globalnym rynku AI.

Ustawa o sztucznej inteligencji spotkała się z krytyką ze strony różnych organizacji, w tym Digital Europe. Europejski Cyfrowy Sojusz MŚP wyraził zaniepokojenie, że wdrożenie samoregulacji może stanowić nadmierne obciążenie dla małych i średnich przedsiębiorstw, nakładając na nie obowiązek potwierdzenia.

Wejście w życie ustawy o sztucznej inteligencji zajmie dwa lata, nawet jeśli członkom uda się rozstrzygnąć trudne kwestie, a Parlament Europejski zagłosuje za jej przyjęciem podczas tej sesji.

Total
0
Shares
Dodaj komentarz

Podobne Wpisy