Kniha návštev

Ako sa umelej inteligencii darí brániť proti hackerom? Nie veľmi dobre, ukazuje štúdia

Umelá inteligencia je pre mnohých technológiou budúcnosti. Už dnes pomáha v rôznych výskumoch, no jej schopnosti môžeme využívať aj my. Nástroje ako ChatGPT nám uľahčujú vyhľadávanie informácií alebo môžeme vďaka nim jednoducho vytvoriť prakticky akýkoľvek obraz.

Už o pár rokov by sa však umelá inteligencia mohla stať neoddeliteľnou súčasťou autonómnych vozidiel alebo by mohla pomáhať v zdravotníctve. Výskumníci z NC State University však v rámci nového výskumu varujú, že umelá inteligencia je viac náchylnejšia na kyberútoky, než sa spočiatku predpokladalo. Ak by sa hackerom podarilo preniknúť do siete umelej inteligencie, dokázali by ju “presvedčiť”, aby robila zlé rozhodnutia.
Ide o rôzne typy útokov, ktoré sa spoliehajú na rovnakú metódu. Tou je manipulácia dát, ktoré môže umelá inteligencia “vidieť” alebo s ktorými pracuje. Napríklad útočníci môžu prísť na to, že určitá nálepka na značke STOP môže spôsobiť, že ju AI autonómne vozidlo úplne prehliadne. Ďalším prípadom je kód, ktorý by mohol zmeniť spôsob akým umelá inteligencia diagnostikuje chorobu pacienta. V najhorších prípadoch by takéto zmeny mohli stáť ľudské životy, varujú vedci.
Umelá inteligencia má viac slabín, než sa čakalo
Autori novej štúdie vedeli, že takéto typy slabín existujú. Nová štúdia preto zisťovala, ako často sa môžu v umelej inteligencii vyskytovať. Ukázalo sa, že takéto typy slabín sú bežnejšie, než sa spočiatku predpokladalo. Varujú, že tieto slabiny nie sú len o tom, aby umelú inteligenciu pomýlili. Skúsený útočník môže tieto slabiny využiť na to, aby prinútil umelú inteligenciu interpretovať dáta presne takým spôsobom, akým útočník chce.

Ako príklad opäť uvádzajú scenár so stopkou. Útočník nemusí túto značku označiť len tak, aby ju AI prehliadla. Pomocou odlišných nálepiek môže umelú inteligenciu presvedčiť o tom, že sa pozerá na zelené svetlo semaforu alebo na rýchlostnú značku.
Umelá inteligencia sa proti podobným útokom zatiaľ nedokáže vôbec brániť. Autori štúdie preto vysvetľujú, že by sme ju nemali implementovať do praktických scenárov, obzvlášť ak v rámci týchto prípadov môžu byť ohrozené ľudské životy.

Výskumníci vytvorili pre potreby výskumu nástroj QuadAttacK. Ide o softvér, ktorý sleduje ako sa AI systém učí na čistých dátach a snaží sa pochopiť, ako sa AI rozhoduje na základe týchto dát. Následne nájde spôsob, ako by sa dali manipulovať dáta tak, aby softvér dosiahol svoj vlastný výsledok. Autori štúdie otestovali softvér na štyroch rôznych umelých inteligenciách a všetky vykazovali množstvo bezpečnostných slabín. V nasledujúcich krokoch budú vedci zisťovať, ako tieto slabiny odstrániť.

Pridať nový príspevok