Forrás: Euronews
Tág definíció
Az AI kifejezést először az 1950 -es években használták. Gabriele kifejti, hogy a Bizottság Közös Kutatóközpontja nemrégiben készített jelentése alapján a mesterséges intelligenciának több mint 50 definíciója létezik, azaz igencsak összetett kérdésről beszélünk.
Tekintettel arra, hogy az uniós országok legnagyobb többsége tagja az OECD-nek, valamint más nem európai országok is, az a döntés született, hogy a szabályozási irányelvek alapjait az OECD AI elvek elfogadott meghatározásából merítik. A törvényben a mesterséges intelligencia fogalmát a 3. cikkely határozza meg és ezt egészíti ki az I. számú melléklet, amely a szoftverfejlesztési keretrendszert tartalmazza, ami magában foglalja a gépi tanulást, a szakértői és logikai rendszereket, a statisztikai megközelítéseket. Azokat a szoftvertermékeket, amelyek ezeket a megközelítéseket tartalmazzák és megfelelnek a 3. cikkelyben meghatározott definíció követelményeinek, a törvény alkalmazásában AI -nak tekintik.
A törvény a mesterséges intelligencia felhasználásának három kategóriáját különbözteti meg: a tiltott mesterséges mesterséges felhasználásokat, a nagy kockázatú AI felhasználásokat és az átláthatósági kockázatokat hordozó rendszereket. A javaslat nem a technológiát szabályozza, hanem a konkrét alkalmazásokat. Általánosságban elmondható, hogy minél nagyobb a kockázat, annál szigorúbbak a szabályok (kockázatalapú megközelítés).
Az AI tiltott használata
Jelenleg négy fő kategória létezik a tiltott AI használat tekintetében.
Az első kettő a személy viselkedésének manipulálására, vagy életkorának, testi,vagy szellemi fogyatékosságából adódó sebezhetőségének kihasználására vonatkozik.
A harmadik kategória szerint: tilos az állami szociális hitel jogosultságok megállapításához kapcsolódó diszkriminatív alkalmazás.
A negyedik kategória a valós idejű távoli biometrikus azonosításra vonatkozik a bűnüldöző szervek által nyilvánosan hozzáférhető helyeken. Kivételt képeznek bizonyos, korlátozott ideig tartó közbiztonsági forgatókönyvek, például súlyos bűncselekmények ( A tagállamokon múlik, hogy mikor kívánnak élni ezzel a kivétellel.). Az AI törvényt „lex specialis” -ként kell alkalmazni a biometrikus adatok feldolgozására vonatkozó, a bűnüldözési irányelv 10. cikkében foglalt szabályok tekintetében. Továbbá a biometrikus azonosítás felhasználását a hatályos GDPR törvény is már szabályozza.
Magas kockázatú besorolás
Az AI törvény meghatározza a magas kockázatú AI felhasználásokat is.
Gabriele kifejti, hogy a mesterséges intelligencia-törvény magas kockázatúnak tekinti a mesterséges intelligencia-rendszert, ha azt egy olyan termék biztonsági összetevőjeként használják, amelyre a meglévő egységes piacra vonatkozó harmonizációs jogszabályok vonatkoznak, és a terméken harmadik fél megfelelőségi értékelését kell elvégezni.
Ezek a kötelező harmadik féltől származó megfelelőségi ellenőrzések a jogszabály elfogadását követően magukban foglalják az AI törvény követelményeit. Ezenkívül más, konkrétan felsorolt AI-rendszerek, amelyeket számos ágazatban telepítenek, szintén magas kockázatot jelentenek a biztonság vagy az alapvető jogok szempontjából. A Bizottság új jogszabályok nélkül, egyszerűsített eljárással bővítheti ezt a listát.
A törvény végrehajtása és szankciói a tagállami szabályozó hatóságokra támaszkodik, de a következetességet európai szintű testület biztosítja.
Termékeny együttműködés az érdekeltekkel
Gabriele szerint az érintettek megjegyzései és javaslatai az AI törvény megalkotásához igen jelentős volt. Rendkívül fontos a szabályozási keretek kialakítása során konzultálni, és lehetőség szerint következetes párbeszédet folytatni az érdekelt felekkel.
A javaslat most az Európai Parlament és a Tanács elé kerül, amelyek lefolytatják saját vitáikat. Az előkészítő munkáért felelős parlamenti bizottságok és maga a Parlament nyilvánosan üléseznek, így az érdekelt felek nyomon követhetik a javaslattal kapcsolatos vitákat, és kifejthetik álláspontjukat.
Forrás: IfsecGlobal
Kapcsolódó cikkek: