Skip to main content

Intelligenza artificiale ultime notizie

|

Intelligenza artificiale ultime notizie. Seppure l’AI abbia implementato la sicurezza e generato molto valore in termini di sorveglianza con il deep learning, ha ora bisogno di fare un salto di qualità: il modello del deep learning infatti sembra non essere più sufficiente.

L’AI non è buona nè cattiva: dipende come viene utilizzata e per quali scopi

Intelligenza Artificiale (AI) e sicurezza

Le tecnologie e i sistemi per essere più sicuri oggi hanno bisogno non solo di obbedire agli ordini impartiti ma di comprenderli, anche in modo profondo. Questo significa anche pretendere che la tecnologia ragioni come l’uomo, con una comprensione generale del mondo e per questo saperlo leggere creando anche contributi originali? Sembra fantascienza eppure è questo di cui si parla oggi, di un’intelligenza artificiale che nella realtà è un “framework per il riconoscimento di modelli generali del mondo su cui è possibile soltanto svolgere delle classificazioni, ma senza mai inferire delle regole generali” di comportamento, che vengono evitate nel deep learning. 

No, il deep learning non è più sufficiente, dobbiamo integrarlo ad altri modelli.

I pericoli dell’Intelligenza artificiale? notizie da Elon Musk

Intelligenza artificiale ultime notizie: Elon Musk, Ceo di Tesla e SpaceX, è convinto, e ne fa una crociata, che una maggior consapevolezza sull’AI, eviterebbe le tante visioni apocalittiche legate ad una Super Intelligenza: se non la si programma con una propria morale ci spazzerà via con indifferenza.

Riguardo a ciò Musk ha fondato OpenAi, un’organizzazione no-profit di ricerca proprio legata ai pericoli etici legati ad una Super Ai, ma non solo. Vengono studiati e applicati nuovi sistemi da abbinare all’AI: uno dei casi studio è la soluzione del cubo di Rubik da parte dell’intelligenza artificiale. 

OpenAI

Le reti neurali sono addestrate interamente in simulazione, usando lo stesso codice di apprendimento di rinforzo di OpenAI Five abbinato a una nuova tecnica chiamata Automatic Domain Randomization (ADR).

Fonte: Solving Rubik’s Cube
with a Robot Hand

Ad OpenAi l’AI è stata addestrata persino alla destrezza per manipolare gli oggetti: Dactyl apprende da zero utilizzando lo stesso algoritmo e codice di apprendimento di rinforzo per scopi generici di OpenAI Five.

Learning Dexterity

Nonostante i progressi ( e forse sono gli stessi progressi ) quindi si teme l’AI: è il caso della capacità decisionale delle macchine (armi autonome) sul campo da guerra nel premere o meno il grilletto, oppure degli attacchi con i droni, che in termini etici ci fa riflettere sul fatto se sia etico o meno permettere a delle macchine di uccidere e quanto questo potrebbe rivoltarsi contro l’umanità in futuro.

potrà darsi che l’intelligenza artificiale si trovi davanti a una scelta, anche piccola: “per avere la sicurezza che non commetta errori, i suoi programmatori dovranno prendere in considerazioni tutte le possibili implicazioni di una data scelta in un dato contesto e così prevedere possibili casi in cui le macchine potrebbero comportarsi in modo sbagliato dal punto di vista etico”

Riguardo a ciò le linee guida dalla Commissione europea evidenziano la necessità della creazione di una strategia a livello europeo per garantire l’etica delle intelligenze artificiali, soprattutto fondata su un approccio umano centrico.

Olivetti Day: intelligenza artificiale, Big Data e Cyber Security

Intelligenza artificiale, Big Data e Cyber Security saranno al centro dell’ottava edizione dell’Olivetti Day, evento di Digital Universitas e sostenuto da Ubi Banca.

Il 14 Novembre, ogni relatore affronterà questi grandi temi che oramai fanno parte della vita di tutti i giorni: tra i relatori il professor Mario Mazzoleni, direttore Smae, Michele Grazioli,  esperto di AI e gli avvocati Gianvirgilio Cugini e Massimiliano Nicotrache affronteranno gli argomenti dal punto di vista giuridico.

Leggi tutto sull’evento OlivettiDay