Megjelent az Európai Bizottság állásfoglalása az AI törvényi szabályozására vonatkozó javaslatról

Az Euralarm nemrégiben Gabriele Mazzini, a DG Connect vezető ügyvédjének véleményét kérdezte a témáról azt követően, hogy megjelent egy állásfoglalás a mesterséges intelligenciáról szóló törvényjavaslatról.

A mesterséges intelligencia első jogi kerete

A mesterséges intelligenciáról szóló törvény egy folyamat eredménye, amelynek kezdete 2018-ban volt, amikor egy szakértői csoportot neveztek ki, hogy tanácsot adjon a kérdésben a Bizottságnak. A javaslat általános célja, hogy a mesterséges intelligencia fejlesztésére és használatára vonatkozó szabályokat egységessé tegye az Unióban, és ezáltal biztosítsa a jogbiztonságot. Egyben arra is törekszik, hogy ösztönözze a mesterséges intelligenciába történő befektetést és innovációt, és növelje a lakosság bizalmát abban, hogy az AI rendszereket az alapvető jogok és az európai értékek tiszteletben tartása figyelembevételével alkalmazzák.

2020 -ban a Bizottság elfogadott egy fehér könyvet, amelyet konzultációra küldtek ki, és több mint 1200 megjegyzést kapott. Ez a hozzájárulás segített megalapozni a mesterséges intelligenciára vonatkozó harmonizált szabályozási keretre vonatkozó javaslatot.

Az AI törvény jelenleg az első javasolt jogi keret a mesterséges intelligenciára vonatkozóan.

Forrás: Euronews

Tág definíció

Az AI kifejezést először az 1950 -es években használták. Gabriele kifejti, hogy a Bizottság Közös Kutatóközpontja nemrégiben készített jelentése alapján a mesterséges intelligenciának több mint 50 definíciója létezik, azaz igencsak összetett kérdésről beszélünk.

Tekintettel arra, hogy az uniós országok legnagyobb többsége tagja az OECD-nek, valamint más nem európai országok is, az a döntés született, hogy a szabályozási irányelvek alapjait az OECD AI elvek elfogadott meghatározásából merítik. A törvényben a mesterséges intelligencia fogalmát a 3. cikkely határozza meg és ezt egészíti ki az I. számú melléklet, amely a szoftverfejlesztési keretrendszert tartalmazza, ami magában foglalja a gépi tanulást, a szakértői és logikai rendszereket, a statisztikai megközelítéseket. Azokat a szoftvertermékeket, amelyek ezeket a megközelítéseket tartalmazzák és megfelelnek a 3. cikkelyben meghatározott definíció követelményeinek, a törvény alkalmazásában AI -nak tekintik.

A törvény a mesterséges intelligencia felhasználásának három kategóriáját különbözteti meg: a tiltott mesterséges mesterséges felhasználásokat, a nagy kockázatú AI felhasználásokat és az átláthatósági kockázatokat hordozó rendszereket. A javaslat nem a technológiát szabályozza, hanem a konkrét alkalmazásokat. Általánosságban elmondható, hogy minél nagyobb a kockázat, annál szigorúbbak a szabályok (kockázatalapú megközelítés).

Az AI tiltott használata

Jelenleg négy fő kategória létezik a tiltott AI használat tekintetében.

Az első kettő a személy viselkedésének manipulálására, vagy életkorának, testi,vagy szellemi fogyatékosságából adódó sebezhetőségének kihasználására vonatkozik.

A harmadik kategória szerint: tilos az állami szociális hitel jogosultságok megállapításához kapcsolódó diszkriminatív alkalmazás.

A negyedik kategória a valós idejű távoli biometrikus azonosításra vonatkozik a bűnüldöző szervek által nyilvánosan hozzáférhető helyeken. Kivételt képeznek bizonyos, korlátozott ideig tartó közbiztonsági forgatókönyvek, például súlyos bűncselekmények ( A tagállamokon múlik, hogy mikor kívánnak élni ezzel a kivétellel.). Az AI törvényt „lex specialis” -ként kell alkalmazni a biometrikus adatok feldolgozására vonatkozó, a bűnüldözési irányelv 10. cikkében foglalt szabályok tekintetében. Továbbá a biometrikus azonosítás felhasználását a hatályos GDPR törvény is már szabályozza.

Magas kockázatú besorolás

Az AI törvény meghatározza a magas kockázatú AI felhasználásokat is.

Gabriele kifejti, hogy a mesterséges intelligencia-törvény magas kockázatúnak tekinti a mesterséges intelligencia-rendszert, ha azt egy olyan termék biztonsági összetevőjeként használják, amelyre a meglévő egységes piacra vonatkozó harmonizációs jogszabályok vonatkoznak, és a terméken harmadik fél megfelelőségi értékelését kell elvégezni.

Ezek a kötelező harmadik féltől származó megfelelőségi ellenőrzések a jogszabály elfogadását követően magukban foglalják az AI törvény követelményeit. Ezenkívül más, konkrétan felsorolt ​​AI-rendszerek, amelyeket számos ágazatban telepítenek, szintén magas kockázatot jelentenek a biztonság vagy az alapvető jogok szempontjából. A Bizottság új jogszabályok nélkül, egyszerűsített eljárással bővítheti ezt a listát.

A törvény végrehajtása és szankciói a tagállami szabályozó hatóságokra támaszkodik, de a következetességet európai szintű testület biztosítja.

Termékeny együttműködés az érdekeltekkel

Gabriele szerint az érintettek megjegyzései és javaslatai az AI törvény megalkotásához igen jelentős volt. Rendkívül fontos a szabályozási keretek kialakítása során konzultálni, és lehetőség szerint következetes párbeszédet folytatni az érdekelt felekkel.

A javaslat most az Európai Parlament és a Tanács elé kerül, amelyek lefolytatják saját vitáikat. Az előkészítő munkáért felelős parlamenti bizottságok és maga a Parlament nyilvánosan üléseznek, így az érdekelt felek nyomon követhetik a javaslattal kapcsolatos vitákat, és kifejthetik álláspontjukat.

Forrás: IfsecGlobal

Kapcsolódó cikkek: