Skip to main content

Intelligenza articiale e sicurezza: apprendimento automatico e infosec

|

Intelligenza artificiale (IA) e sicurezza: sebbene l’IA e il machine learning siano diventati una necessità che non può più essere ignorata in tema di tecnologia ed innovazione, il mercato sta iniziando seriamente a pensare alle minacce che potrevvero evolvere alla pari dei nuovi sistemi.

Tra i nuovi elementi che stanno emergendo vi sono le questioni legate alla governance, alla verificabilità, alla conformità e, soprattutto, alla sicurezza. Il settore della sicurezza informatica, soprattutto, è sempre più attento ai pericoli dell’intelligenza artificiale (IA) nel mondo reale. L’apprendimento automatico è una metodologia induttiva che estrae automaticamente le relazioni tra i dati da un numero enorme di campioni di input-output estremamente complicati ma hanno vulnerabilità specifiche e rischi per la sicurezza rilevanti che i sistemi IT non hanno. Ci si aspetta che i sistemi di apprendimento automatico risolvano attività in cui i dati di input provengono direttamente da ambienti naturali o reali, ma poihcè la gamma dei dati un input è ancora vaga e aperta lo sono anche le proprietà che la relazione input-output del sistema dovrebbe soddisfare.

Nel settore della sicurezza informatica l’IA verrà sempre pià utilizzata, nell’ambito delle valutazioni delle vulnerabilità, pentest, audit, conformità e monitoraggio continuo delle minacce. In futuro, vi saranno soluzioni come la crittografia omomorfica, l’apprendimento automatico riservato alla protezione della privacy, ed è per questo che l’IA deve essere uno strumento in cui riporre la propria fiducia.

Intelligenza Artificiale e sicurezza: le vulnerabilità del machine learning

Alcune delle loro vulnerabilità sono quindi – rimarcando il concetto – fonti di nuovi rischi per la sicurezza informatica che non possono essere affrontati efficacemente dalle metodologie di sicurezza convenzionali. Un quadro che noj è stato ancor ad oggi chiarito del tutto. Tali rischi comporterebbero gravi incidenti – nella guida autonoma ad esempio – e malfunzionamenti nei sistemi di riconoscimento facciale, tanto per citarne alcuni. Gli attacchi informatici inoltre sono stati dimostrati del tutto fattibili fino ad ora: ancora nel caso precedente del risconoscimento facciale, si è dimostrato che l’IA non riesce a riconoscere ancora in modo efficace il viso di una persona dietro a degli occhiali. Significa quindi che nella fase del training vi è stata una carenza nelle informazioni acquisite.

Inoltre a ciò si aggiunge l’alta infatti la probabilità di futuri attacchi basati sull’intelligenza artificiale, ove gli aggressori prenderanno di mira le nuove tecnologie come le comunicazioni 5G, le città intelligenti (smart cities) e l’Internet of Things (IoT).

Andrea Biraghi – La Cyber security ha bisogno dell’intelligenza artificiale, ecco perchè

Lo sviluppo della tecnologia 5G e dell’Internet of Things, infatti, aumenteranno le vulnerabilità degli utenti: si parla di attacchi informatici di quinta generazione su larga scala.

Per molti problemi si stanno già adottando soluzini specifiche, ma la prima difficoltà sta sempre e soprattutto nell’identificare in modo completo le vulnerabilità dei sistemi di apprendimento automatico.