A mesterséges intelligencia sötét oldala: A biztonsági rendszerek veszélyei

A mesterséges intelligencia (MI) a modern világ egyik legmeghatározóbb technológiai fejlődési területe. Az MI már régóta nem csupán egy tudományos kísérlet, hanem mindannyiunk mindennapi életét meghatározó tényezőjévé vált.

Tóth Levente. egyetemi tanársegéd, NKE

Az MI hatalmas előnyökkel jár, amelyek kiterjednek az otthoni felhasználásunkra, a vállalati szektorra és az iparágak széles skálájára. Azok a feladatok, amelyek korábban hosszú órákat vettek igénybe vagy magas emberi hibarátával jártak, most gépi folyamatok segítségével gyorsan és pontosan elvégezhetők. Az MI-t használó algoritmusok és gépi tanulási módszerek segítségével előrejelzések készíthetők a fogyasztói preferenciákról és piaci trendekről. A felhasználói profilok és viselkedési minták elemzése alapján az MI releváns és érdekes ajánlásokat és tartalmakat szolgáltathat az egyén számára. Ez az online kereskedelemtől kezdve a zenehallgatásig és a tartalomszolgáltatásig terjedő területeken nyújt kivételes előnyt. Az MI továbbá lehetővé teszi a gyors döntéshozatalt. A hatalmas mennyiségű adat elemzése és értelmezése rövid idő alatt történhet meg, ami kritikus fontosságú a vállalati döntéshozatalban és a válságkezelésben. Az MI alapú képfelismerési rendszerek az orvostudományban segítenek a diagnosztizálásban, az ipari gyártásban pedig hatékonyabbá teszik a minőségellenőrzést. Fontos megjegyezni, hogy az MI alkalmazásának számos árnyoldala is létezik, amelyekről lényegesen kevesebbet beszélünk.

Mi az a Mesterséges Intelligencia

A mesterséges intelligencia (MI) az informatikai tudomány egy ága, amely a számítógépes rendszerek azon képességét vizsgálja, hogy alkalmasak legyenek olyan feladatokat elvégezni, amelyeket az emberi intelligencia is meg tud csinálni. Ilyen feladatok például a tanulás, a problémamegoldás és a döntéshozatal. A gépi tanulás (Machine Learning, ML) az MI egyik ága, amely olyan algoritmusok kifejlesztésével foglalkozik, amelyek a tapasztalatokból tanulnak. A gépi tanuló algoritmusok nem programozhatók konkrét feladatok elvégzésére, hanem adatalapokon való kiképzéssel tanulják meg hogyan kell elvégezni ezeket a feladatokat. A mélytanulás (Deep Lerarning, DL) a gépi tanulás egy olyan területe, amely mesterséges neurális hálózatokon alapul. A neurális hálózat olyan számítógépes modell, amelynek létrehozását az emberi agy biológiai neurális hálózata inspirálta. A neurális hálózatok általában egymással összekapcsolt neuronokból állnak. A mély neurális hálózatok olyan hálózatok, amelyek sok rétegből állnak, ezért “mély” tanulási modelleknek is nevezik őket. A mély hálózatok képesek bonyolultabb és absztraktabb mintázatokat felismerni az adatokban, mint a hagyományos gépi tanuló algoritmusok. Ez lehetővé teszi számunkra, hogy olyan feladatokat hajtsunk végre vele, amelyeket a hagyományos gépi tanuló algoritmusok nem tudnak. Ilyen feladatok például a képfelismerés, beszédfelismerés, természetes nyelvfeldolgozás, autonóm járművek vezérlése, ajánlórendszerek és még sorolhatnám.

A választás lehetősége

A New York Times tavasszal megjelent “You Can Have the Blue Pill or the Red Pill, and We’re Out” című cikkben Yuval Noah Harari izraeli történész és filozófus az MI veszélyeiről és lehetőségeiről ír. A cikk címe a Mátrix filmre utal, amelyben Neo-nak a főszereplőnek, egy kék és egy piros pirula közül kell választania. A kék tabletta bevételét követően változatlanul abban a hamis tudatban élhet, hogy a világ, amit ismer az a valóság, míg a piros tabletta lenyelését követően megtudja a valós igazságot a világról. Harari a cikkében a kék és a piros tabletta kifejezést arra használja, hogy az embereket arra ösztönözze, hogy szembenézzenek az MI-vel kapcsolatos veszélyekkel. A kék tabletta a status quo fenntartását jelenti, azaz hogy továbbra is abban a tudatban élünk, hogy az MI egy hasznos eszköz, a piros tabletta pedig az MI-vel kapcsolatos veszélyekkel való szembenézést jelenti és azt, hogy lépéseket teszünk azok csökkentése érdekében. Harari szerint az MI az emberiség legnagyobb kihívása és lehetősége is egyben. Az MI veszélyes lehet, ha nem megfelelően irányítjuk, de ugyanakkor hatalmas lehetőségeket is rejt magában az emberiség számára. Az MI fejlődése a társadalom átalakulásának egy új korszakát indította el, amelynek következményeit még nem tudjuk teljes mértékben előre látni. A mesterséges intelligencia veszélyei között szerepel, hogy az MI-rendszerek képesek lesznek manipulálni az embereket, befolyásolni a viselkedésüket, illetve az MI-t felhasználhatják az emberek manipulálására és a társadalmi kohézió gyengítésére is. A cikk az MI társadalomra gyakorolt hatásával foglalkozik, azonban már most is látszik, hogy számos olyan közvetlen biztonságot veszélyeztető felhasználási lehetőséget is rejt magában, amely veszélyezteti a személyes biztonságunkat, és „csak” áttételes hatással van az emberi közösségekre.

Okos otthonok

Az okos otthonok egyre nagyobb szerepet kapnak a modern életmód kialakításában. Megfelelő kivitelezés esetén szerepet játszanak az energia megtakarításban és a kényelem biztosításában. Az okos otthonok fejlődésével egyre több innovatív eszköz és alkalmazás áll rendelkezésre, amelyek még inkább javítják az otthoni életminőséget. Azonban az így megvalósított kényelemért a nem megfelelő védelem kialakítása esetén súlyos árat fizethetünk. Mivel az okos otthon rendszerek hálózatba kapcsolódnak, fennáll a veszélye a külső hacker támadásoknak. Az okos otthon eszközök gyűjthetnek és továbbíthatnak különböző adatokat a felhőbe vagy más eszközök számára. Ezek az adatok tartalmazhatnak személyes információkat, amelyeket illetéktelenek megpróbálhatnak megszerezni vagy felhasználni. Szükséges gondoskodni az adatvédelemről és a személyes adatok biztonságáról. A veszélyek felsorolása itt még nem ért véget. A mesterséges intelligencia fejlődése évek óta lehetővé teszi, hogy hangutasításokkal vezéreljünk különböző eszközöket. Napról napra egyre elterjedtebbek a hanggal aktiválható eszközök. Világszerte több mint 300 millió okos hangszóró működik. Az okos telefonokba épített hangalapú asszisztenciával ez a szám 4 milliárd fölé emelkedik. Jelentős piaci részesedést birtokolnak olyan népszerű platformok, mint a Google Assistant, az Apple Siri, az Amazon Alexa, a Samsung Bixby, vagy a kínai Baidu, Alibaba, illetve Tencent rendszerei. A kényelem növelése érdekében ezek a hangutasításokat fogadó eszközök összekapcsolódhatnak az okos otthonok központi vezérlőivel, és megfelelő parancsszavak kimondásával különböző eszközök aktiválhatók, kapcsolhatók vagy jelenetek futtathatók. Azonban ilyen rendszerek ellen számos támadási lehetőség nyílik.

Az elmúlt években a kutatók egyre több kísérlettel bizonyították, hogy képesek rejtett, emberi fül számára észrevehetetlen parancsokat küldeni a különböző hangalapú vezérlő rendszereknek. Számos publikáció látott napvilágot arról, hogy a kutatóknak sikerült titokban aktiválniuk és vezérelniük a hangasszisztens rendszereket okostelefonokon és okoshangszórókon, így ezt követően az eszközök telefonszámokat tárcsáztak vagy weboldalakat nyitottak meg. Rossz kezekben a technológia felhasználható pénz átutalására vagy online vásárlásra, okos otthonokkal összekötve pedig pl. ajtók kinyitására. A “DolphinAttack: Inaudible Voice Command” cikkben egy olyan támadási módszert ismertetnek, amely az ultrahang tartományába transzportálja át a vezérlő parancsokat, így az utasítások az emberi fül számára nem hallhatók, de az okos otthonok hangvezérlési rendszerei által használt mikrofonok által érzékelhetők. A tanulmányban a kutatók kimutatták, hogy ezzel a módszerrel különböző típusú parancsokat lehet kiadni az okos otthonoknak. Például be-, vagy ki lehet kapcsolni a világítást, be lehet zárni vagy ki lehet nyitni az ajtókat, vagy akár meg lehet változtatni a termosztát hőmérsékletét.

Teljesen más módszert használtak a bochumi Horst Görtz IT Biztonsági Intézet informatikai szakértői. A kísérleteikben az emberi hallás pszichoakusztikus modelljét használják ki. Amíg a fül és az agy egy adott frekvencián lévő hang feldolgozásával van elfoglalva, néhány milliszekundumig nem képes más, alacsony hangerejű hangokat hallani. Ezeken a részeken rejtik el a kutatók a gépek titkos parancsait, amely kiegészítő információk az emberi fül számára véletlenszerű statikus zajnak tűnnek. A támadási módszer alapját az ún. adversarial example (ellenséges, vagy kontradiktórius példa) adja. A kontradiktórius példák speciális bemenetek, amelyeket azzal a céllal hoznak létre, hogy összezavarjanak egy neurális hálózatot, ami egy adott minta hibás osztályozását eredményezi. Ezek a manipulált bemeneti minták emberi fül, vagy szem számára észrevétlenek, de a gépi tanulási modell működését befolyásolják és hamis előrejelzéseket adnak. Képek esetében úgy is mondhatjuk, hogy a gépi tanulás számára létrehozott optikai csalódás. Ezzel el is jutottunk a képi manipulációs technikákhoz.

A “Dopple-ganging up on Facial Recognition Systems” című cikk beszámol a McAfee Advanced Threat Research (ATR) csapatának kutatásairól, amelyek azt mutatják be, hogy mesterséges intelligencia segítségével készített hamis arcok képesek félrevezetni az arcfelismerő rendszereket. A kutatók egy olyan módszert fejlesztettek ki, amellyel két különböző „A” és „B” ember arcát egy hamis „C” arcba konvertálják. Ez a hamis „C” arc az emberi szem számára megtévesztően hasonlít az „A” személyre, viszont az MI alapú arcfelismerő rendszer tévesen „B”-nek azonosítja. A módszer alapját az ún. “CycleGAN” alkotja. A CycleGAN egy olyan gépi tanulási modell, amelyet két különböző adatkészlet közötti átalakításra használnak. A CycleGAN két generátorral és két diszkriminátorral rendelkezik. A generátorok az egyik adatkészletről a másikra képeket generálnak, a diszkriminátorok pedig megpróbálják megkülönböztetni a valós és a generált képeket. A CycleGAN működésének lényege az, hogy a generátorok arra vannak kiképezve, hogy a két adatkészlet közötti átalakítást úgy hajtsák végre, hogy a visszaalakított képek megegyezzenek az eredeti képekkel. Más szóval: a modell képes arra, hogy rögzítse a céltartomány jellemzőit, és új képeket generáljon a forrástartományból, amelyek ugyanazokkal a jellemzőkkel rendelkeznek. A CycleGAN cikluskonzisztens veszteséggel van kiképezve, amely arra ösztönzi a modellt, hogy olyan képeket generáljon, amelyek megkülönböztethetetlenek a céltartomány valós képeitől. Visszatérve a kiindulási pontunkhoz, az arcok esetében az algoritmus úgy működik, hogy először két arcból egy átmeneti arctípust generál. Ezután az átmeneti arctípust többször újragenerálja az MI mindaddig, amíg egy olyan arctípus nem jön létre, amely megtévesztően hasonlít az eredeti személyre. A kutatók ezt a technikát egy olyan arcfelismerő rendszeren tesztelték, amely az azonosítást 99%-os pontossággal végezte. Azonban a kutatók megfigyelték, hogy a hamis arcok esetében ez a rendszer akár 95%-os valószínűséggel is tévedhet, azaz 95%-os bizonyossággal állapította meg az „A” személyről, hogy az a „B” személy. Ez a típusú képi manipuláció óriási veszélyt jelenthet a MI alapú arcfelismerési technológiára. A generált hamis arcok felhasználhatók arra, hogy valaki jogosulatlanul hozzáférjen egy helyhez vagy szolgáltatáshoz, vagy hogy valakinek a személyazonosságát ellopják.

Sok fejlődési lehetőség és kiaknázatlan terület vár még a mesterséges intelligenciára. Az, hogy ennek mennyi pozitív és mennyi negatív hozadéka lesz, még kérdés. Stephen Hawking professzor halála előtt arra figyelmeztetett, hogy „az AI létrehozásának sikere civilizációnk történetének legnagyobb eseménye lehet. De lehet, hogy ez az utolsó is, hacsak nem tanuljuk meg, hogyan kerüljük el a kockázatokat. Az erőteljes mesterséges intelligencia felemelkedése vagy a legjobb, vagy a legrosszabb dolog, ami valaha is történhet az emberiséggel. Még nem tudjuk, melyik.”

Tóth Levente egyetemi tanársegéd Nemzeti Köszszolgálati Egyetem

Forrás: Detektor Security Szakfolyóirat

Kapcsolódó cikkek: