A választás lehetősége
A New York Times tavasszal megjelent “You Can Have the Blue Pill or the Red Pill, and We’re Out” című cikkben Yuval Noah Harari izraeli történész és filozófus az MI veszélyeiről és lehetőségeiről ír. A cikk címe a Mátrix filmre utal, amelyben Neo-nak a főszereplőnek, egy kék és egy piros pirula közül kell választania. A kék tabletta bevételét követően változatlanul abban a hamis tudatban élhet, hogy a világ, amit ismer az a valóság, míg a piros tabletta lenyelését követően megtudja a valós igazságot a világról. Harari a cikkében a kék és a piros tabletta kifejezést arra használja, hogy az embereket arra ösztönözze, hogy szembenézzenek az MI-vel kapcsolatos veszélyekkel. A kék tabletta a status quo fenntartását jelenti, azaz hogy továbbra is abban a tudatban élünk, hogy az MI egy hasznos eszköz, a piros tabletta pedig az MI-vel kapcsolatos veszélyekkel való szembenézést jelenti és azt, hogy lépéseket teszünk azok csökkentése érdekében. Harari szerint az MI az emberiség legnagyobb kihívása és lehetősége is egyben. Az MI veszélyes lehet, ha nem megfelelően irányítjuk, de ugyanakkor hatalmas lehetőségeket is rejt magában az emberiség számára. Az MI fejlődése a társadalom átalakulásának egy új korszakát indította el, amelynek következményeit még nem tudjuk teljes mértékben előre látni. A mesterséges intelligencia veszélyei között szerepel, hogy az MI-rendszerek képesek lesznek manipulálni az embereket, befolyásolni a viselkedésüket, illetve az MI-t felhasználhatják az emberek manipulálására és a társadalmi kohézió gyengítésére is. A cikk az MI társadalomra gyakorolt hatásával foglalkozik, azonban már most is látszik, hogy számos olyan közvetlen biztonságot veszélyeztető felhasználási lehetőséget is rejt magában, amely veszélyezteti a személyes biztonságunkat, és „csak” áttételes hatással van az emberi közösségekre.
Okos otthonok
Az okos otthonok egyre nagyobb szerepet kapnak a modern életmód kialakításában. Megfelelő kivitelezés esetén szerepet játszanak az energia megtakarításban és a kényelem biztosításában. Az okos otthonok fejlődésével egyre több innovatív eszköz és alkalmazás áll rendelkezésre, amelyek még inkább javítják az otthoni életminőséget. Azonban az így megvalósított kényelemért a nem megfelelő védelem kialakítása esetén súlyos árat fizethetünk. Mivel az okos otthon rendszerek hálózatba kapcsolódnak, fennáll a veszélye a külső hacker támadásoknak. Az okos otthon eszközök gyűjthetnek és továbbíthatnak különböző adatokat a felhőbe vagy más eszközök számára. Ezek az adatok tartalmazhatnak személyes információkat, amelyeket illetéktelenek megpróbálhatnak megszerezni vagy felhasználni. Szükséges gondoskodni az adatvédelemről és a személyes adatok biztonságáról. A veszélyek felsorolása itt még nem ért véget. A mesterséges intelligencia fejlődése évek óta lehetővé teszi, hogy hangutasításokkal vezéreljünk különböző eszközöket. Napról napra egyre elterjedtebbek a hanggal aktiválható eszközök. Világszerte több mint 300 millió okos hangszóró működik. Az okos telefonokba épített hangalapú asszisztenciával ez a szám 4 milliárd fölé emelkedik. Jelentős piaci részesedést birtokolnak olyan népszerű platformok, mint a Google Assistant, az Apple Siri, az Amazon Alexa, a Samsung Bixby, vagy a kínai Baidu, Alibaba, illetve Tencent rendszerei. A kényelem növelése érdekében ezek a hangutasításokat fogadó eszközök összekapcsolódhatnak az okos otthonok központi vezérlőivel, és megfelelő parancsszavak kimondásával különböző eszközök aktiválhatók, kapcsolhatók vagy jelenetek futtathatók. Azonban ilyen rendszerek ellen számos támadási lehetőség nyílik.
Az elmúlt években a kutatók egyre több kísérlettel bizonyították, hogy képesek rejtett, emberi fül számára észrevehetetlen parancsokat küldeni a különböző hangalapú vezérlő rendszereknek. Számos publikáció látott napvilágot arról, hogy a kutatóknak sikerült titokban aktiválniuk és vezérelniük a hangasszisztens rendszereket okostelefonokon és okoshangszórókon, így ezt követően az eszközök telefonszámokat tárcsáztak vagy weboldalakat nyitottak meg. Rossz kezekben a technológia felhasználható pénz átutalására vagy online vásárlásra, okos otthonokkal összekötve pedig pl. ajtók kinyitására. A “DolphinAttack: Inaudible Voice Command” cikkben egy olyan támadási módszert ismertetnek, amely az ultrahang tartományába transzportálja át a vezérlő parancsokat, így az utasítások az emberi fül számára nem hallhatók, de az okos otthonok hangvezérlési rendszerei által használt mikrofonok által érzékelhetők. A tanulmányban a kutatók kimutatták, hogy ezzel a módszerrel különböző típusú parancsokat lehet kiadni az okos otthonoknak. Például be-, vagy ki lehet kapcsolni a világítást, be lehet zárni vagy ki lehet nyitni az ajtókat, vagy akár meg lehet változtatni a termosztát hőmérsékletét.
Teljesen más módszert használtak a bochumi Horst Görtz IT Biztonsági Intézet informatikai szakértői. A kísérleteikben az emberi hallás pszichoakusztikus modelljét használják ki. Amíg a fül és az agy egy adott frekvencián lévő hang feldolgozásával van elfoglalva, néhány milliszekundumig nem képes más, alacsony hangerejű hangokat hallani. Ezeken a részeken rejtik el a kutatók a gépek titkos parancsait, amely kiegészítő információk az emberi fül számára véletlenszerű statikus zajnak tűnnek. A támadási módszer alapját az ún. adversarial example (ellenséges, vagy kontradiktórius példa) adja. A kontradiktórius példák speciális bemenetek, amelyeket azzal a céllal hoznak létre, hogy összezavarjanak egy neurális hálózatot, ami egy adott minta hibás osztályozását eredményezi. Ezek a manipulált bemeneti minták emberi fül, vagy szem számára észrevétlenek, de a gépi tanulási modell működését befolyásolják és hamis előrejelzéseket adnak. Képek esetében úgy is mondhatjuk, hogy a gépi tanulás számára létrehozott optikai csalódás. Ezzel el is jutottunk a képi manipulációs technikákhoz.
A “Dopple-ganging up on Facial Recognition Systems” című cikk beszámol a McAfee Advanced Threat Research (ATR) csapatának kutatásairól, amelyek azt mutatják be, hogy mesterséges intelligencia segítségével készített hamis arcok képesek félrevezetni az arcfelismerő rendszereket. A kutatók egy olyan módszert fejlesztettek ki, amellyel két különböző „A” és „B” ember arcát egy hamis „C” arcba konvertálják. Ez a hamis „C” arc az emberi szem számára megtévesztően hasonlít az „A” személyre, viszont az MI alapú arcfelismerő rendszer tévesen „B”-nek azonosítja. A módszer alapját az ún. “CycleGAN” alkotja. A CycleGAN egy olyan gépi tanulási modell, amelyet két különböző adatkészlet közötti átalakításra használnak. A CycleGAN két generátorral és két diszkriminátorral rendelkezik. A generátorok az egyik adatkészletről a másikra képeket generálnak, a diszkriminátorok pedig megpróbálják megkülönböztetni a valós és a generált képeket. A CycleGAN működésének lényege az, hogy a generátorok arra vannak kiképezve, hogy a két adatkészlet közötti átalakítást úgy hajtsák végre, hogy a visszaalakított képek megegyezzenek az eredeti képekkel. Más szóval: a modell képes arra, hogy rögzítse a céltartomány jellemzőit, és új képeket generáljon a forrástartományból, amelyek ugyanazokkal a jellemzőkkel rendelkeznek. A CycleGAN cikluskonzisztens veszteséggel van kiképezve, amely arra ösztönzi a modellt, hogy olyan képeket generáljon, amelyek megkülönböztethetetlenek a céltartomány valós képeitől. Visszatérve a kiindulási pontunkhoz, az arcok esetében az algoritmus úgy működik, hogy először két arcból egy átmeneti arctípust generál. Ezután az átmeneti arctípust többször újragenerálja az MI mindaddig, amíg egy olyan arctípus nem jön létre, amely megtévesztően hasonlít az eredeti személyre. A kutatók ezt a technikát egy olyan arcfelismerő rendszeren tesztelték, amely az azonosítást 99%-os pontossággal végezte. Azonban a kutatók megfigyelték, hogy a hamis arcok esetében ez a rendszer akár 95%-os valószínűséggel is tévedhet, azaz 95%-os bizonyossággal állapította meg az „A” személyről, hogy az a „B” személy. Ez a típusú képi manipuláció óriási veszélyt jelenthet a MI alapú arcfelismerési technológiára. A generált hamis arcok felhasználhatók arra, hogy valaki jogosulatlanul hozzáférjen egy helyhez vagy szolgáltatáshoz, vagy hogy valakinek a személyazonosságát ellopják.
Sok fejlődési lehetőség és kiaknázatlan terület vár még a mesterséges intelligenciára. Az, hogy ennek mennyi pozitív és mennyi negatív hozadéka lesz, még kérdés. Stephen Hawking professzor halála előtt arra figyelmeztetett, hogy „az AI létrehozásának sikere civilizációnk történetének legnagyobb eseménye lehet. De lehet, hogy ez az utolsó is, hacsak nem tanuljuk meg, hogyan kerüljük el a kockázatokat. Az erőteljes mesterséges intelligencia felemelkedése vagy a legjobb, vagy a legrosszabb dolog, ami valaha is történhet az emberiséggel. Még nem tudjuk, melyik.”
Tóth Levente egyetemi tanársegéd Nemzeti Köszszolgálati Egyetem
Forrás: Detektor Security Szakfolyóirat
Kapcsolódó cikkek: