Skip to main content

Tag: intelligenza artificiale notizie

Cyber Security e AI: le sfide del 2020

Cyber Security e AI: quali sono le sfide del 2020 e gli scenari futuri nell’epoca della cyberwar?

Nel 2020 l’intelligenza artificiale (AI) potrebbe controllare tutte le indagini sulla sicurezza interna, indagare sulle potenziali minacce e produrre report: tutto questo molto più velocemente di qualsiasi essere umano.

Andrea Biraghi cyber security ai ultime notizie
Intelligenza artificiale

Se l’AI può rappresentare una soluzione per i professionisti della sicurezza informatica, per contrastare in modo veloce ed efficace gli attacchi, potrebbe però diventare un’arma nelle mani dei criminali informatici. Gli aggressori infatti dipenderanno sempre più da questa tecnologia per risucire a decodificare i meccanisimi di difesa delle organizzazioni, arrivando a simulare gli schemi comportamentali per infiltrarsi nei sistemi. Le loro reti infatti stanno aggiornando le tecniche di hacking e per contrastarli non basterà l’intervento umano: ricordiamoci che ad un criminale informatico basta solo una porta aperta per entrare, mentre un sistema per difendersi le deve tenere tutte chiuse. Le possibili falle sono numerose e l’intensificazione delle soluzioni attraverso l’innovazione e la tecnologia è indispensabile.

Cyber Security e AI: tra le previsioni per il 2020 l’intelligenza artificiale (AI) e il machine learning (ML) c’è la gestione degli asset management, con il successivo miglioramento della resilenza degli endpoint. Un altro punto importante riguarda il rilevamento delle minacce informatiche: l’AI è infatti in grado di esaminare una vasta gamma di set di dati, arrivando a risultati sempre più precisi. Automatizzare le operazioni di sicurezza, che stanno diventando un problema di big data, diventerà via via più importante, e l’umo da solo non rappresenta più una risposta efficace.

Se nel 2020 è previsto che almeno il 63% delle imprese adotterà sistemi e soluzioni di intelligenza artificiale è perchè quest’ultima è in grado di offrire un ambiente più sicuro. Ma anche i sistemi AI possiedono potenziali vulnerabilità, basti pensare alle implicazioni del’Internet of Things (IoT) o ai veicoli a guida automatica (self-driving cars). I sistemi IoT sono infatti esposti a rischi collegati alla sicurezza: oggi è quindi indispensabile proteggerli e quanto mai sono importanti soluzioni di cyber security per risolvere le loro vulnerabilità. Diviene anche fondamentale lo sviluppo di modelli di digital forensics per recuperare le prove degli attacchi.

Cyber Security e AI: sicurezza e vulnerabilità

Il problema della sicurezza legata agli algortimi AI è nota da tempo: tra le vulnerabilità tempo fa era stata rilevata quella legata al riconsocimento delle email spam, oltre al problema delle contaminazioni di dati attraverso il poisoning.

Di recente le comunità scientifiche stanno lavorando proprio al problema della sicurezza: le contromisure che si stanno adottando sono volte a mitigare la vulnerabilità degli algoritmi, legata al fatto che nessuno di loro è stato progettato per riconoscere alcune particolari trasformazioni ostili dei dati in ingresso.

Leggi tutto su AgendaDigitale.eu – Intelligenza artificiale, le ricerche per renderla sicura


Intelligenza artificiale ultime notizie

Intelligenza artificiale ultime notizie. Seppure l’AI abbia implementato la sicurezza e generato molto valore in termini di sorveglianza con il deep learning, ha ora bisogno di fare un salto di qualità: il modello del deep learning infatti sembra non essere più sufficiente.

L’AI non è buona nè cattiva: dipende come viene utilizzata e per quali scopi

Intelligenza Artificiale (AI) e sicurezza

Le tecnologie e i sistemi per essere più sicuri oggi hanno bisogno non solo di obbedire agli ordini impartiti ma di comprenderli, anche in modo profondo. Questo significa anche pretendere che la tecnologia ragioni come l’uomo, con una comprensione generale del mondo e per questo saperlo leggere creando anche contributi originali? Sembra fantascienza eppure è questo di cui si parla oggi, di un’intelligenza artificiale che nella realtà è un “framework per il riconoscimento di modelli generali del mondo su cui è possibile soltanto svolgere delle classificazioni, ma senza mai inferire delle regole generali” di comportamento, che vengono evitate nel deep learning. 

No, il deep learning non è più sufficiente, dobbiamo integrarlo ad altri modelli.

I pericoli dell’Intelligenza artificiale? notizie da Elon Musk

Intelligenza artificiale ultime notizie: Elon Musk, Ceo di Tesla e SpaceX, è convinto, e ne fa una crociata, che una maggior consapevolezza sull’AI, eviterebbe le tante visioni apocalittiche legate ad una Super Intelligenza: se non la si programma con una propria morale ci spazzerà via con indifferenza.

Riguardo a ciò Musk ha fondato OpenAi, un’organizzazione no-profit di ricerca proprio legata ai pericoli etici legati ad una Super Ai, ma non solo. Vengono studiati e applicati nuovi sistemi da abbinare all’AI: uno dei casi studio è la soluzione del cubo di Rubik da parte dell’intelligenza artificiale. 

OpenAI

Le reti neurali sono addestrate interamente in simulazione, usando lo stesso codice di apprendimento di rinforzo di OpenAI Five abbinato a una nuova tecnica chiamata Automatic Domain Randomization (ADR).

Fonte: Solving Rubik’s Cube
with a Robot Hand

Ad OpenAi l’AI è stata addestrata persino alla destrezza per manipolare gli oggetti: Dactyl apprende da zero utilizzando lo stesso algoritmo e codice di apprendimento di rinforzo per scopi generici di OpenAI Five.

Learning Dexterity

Nonostante i progressi ( e forse sono gli stessi progressi ) quindi si teme l’AI: è il caso della capacità decisionale delle macchine (armi autonome) sul campo da guerra nel premere o meno il grilletto, oppure degli attacchi con i droni, che in termini etici ci fa riflettere sul fatto se sia etico o meno permettere a delle macchine di uccidere e quanto questo potrebbe rivoltarsi contro l’umanità in futuro.

potrà darsi che l’intelligenza artificiale si trovi davanti a una scelta, anche piccola: “per avere la sicurezza che non commetta errori, i suoi programmatori dovranno prendere in considerazioni tutte le possibili implicazioni di una data scelta in un dato contesto e così prevedere possibili casi in cui le macchine potrebbero comportarsi in modo sbagliato dal punto di vista etico”

Riguardo a ciò le linee guida dalla Commissione europea evidenziano la necessità della creazione di una strategia a livello europeo per garantire l’etica delle intelligenze artificiali, soprattutto fondata su un approccio umano centrico.

Olivetti Day: intelligenza artificiale, Big Data e Cyber Security

Intelligenza artificiale, Big Data e Cyber Security saranno al centro dell’ottava edizione dell’Olivetti Day, evento di Digital Universitas e sostenuto da Ubi Banca.

Il 14 Novembre, ogni relatore affronterà questi grandi temi che oramai fanno parte della vita di tutti i giorni: tra i relatori il professor Mario Mazzoleni, direttore Smae, Michele Grazioli,  esperto di AI e gli avvocati Gianvirgilio Cugini e Massimiliano Nicotrache affronteranno gli argomenti dal punto di vista giuridico.

Leggi tutto sull’evento OlivettiDay