Google fissa 5 regole per rendere sicuro lo sviluppo dell’intelligenza artificiale

23 Giugno 2016 78

L’intelligenza artificiale è uno degli campi della scienza più discussi nel mondo, ricco di potenzialità ma considerato anche “pericoloso” se non sviluppato seguendo criteri razionali e di buon senso.

Diverse grandi aziende stanno seguendone da vicino l’evoluzione, ritenendo l’AI un elemento fondamentale per l’evoluzione della tecnologia. Tra queste, Google risulta essere tra le più attive e impegnate, attenta nell’individuazione delle potenzialità da applicare all’interno delle piattaforme che la rendono leader in diversi ambiti del mercato.

Chris Olah di Google Research ha pubblicato un post in cui indica 5 regole fondamentali da seguire per rendere più sicuro lo sviluppo dell’intelligenza artificiale, realizzando così un breve – ma concreto – vademecum per tutti coloro che intendono investire in questo campo. Il post si rifà ad un paper tecnico redatto dalla stessa Google in collaborazione con OpenAI, Stanford e Berkeley dal titolo “Concrete Problems in AI Safety”.

Al fine di sviluppare approcci “pratici” e sicuri per l’ingegnerizzazione dei sistemi di AI, Olah ritiene che debbano essere date risposte ai seguenti 5 problemi:

  • Evitare effetti collaterali negativi: l’intelligenza artificiale non deve creare disturbo all’ambiente circostante durante il completamento delle attività definite
  • Evitare il “Reward Hacking”: l’intelligenza artificiale è chiamata a completare le sue attività in modo corretto e non “sporco”, come ad esempio ricoprire lo sporco con materiale non considerato rifiuto da parte di un robot di pulizia)
  • Supervisione scalabile: evitare la necessità di fornire continui feedback da parte dell’uomo per garantire l’efficacia dell’intelligenza artificiale
  • Esplorazione sicura: evitare che l’intelligenza artificiale danneggi se stessa e l’ambiente circostante
  • Affidabilità nello spostamento distributivo: l’intelligenza artificiale deve essere in grado di operare in modo efficace anche in un ambiente diverso da quello in cui ha imparato ad agire.

Olah afferma nel post che lo sviluppo dell’AI ha già dato alcune risposte a queste problematiche, ma c’è ancora tanto da fare per in termini di efficacia e di sicurezza. E questo può essere ottenuto solamente tramite una sempre più stretta collaborazione tra i gruppi di ricerca attualmente impegnati in materia.


78

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
erdarkos

Aggiungo la sesta:

6. Non farla incaxxare

Fez Vrasta

Mai sentito parlare di technological singularity? Nel giro di pochissimo potremmo creare un'entita' talmente superiore da non accorgersi nemmeno della nostra esistenza (e quindi distruggerci pure senza farci caso).

Fez Vrasta

Le leggi di Asimov mi pare abbiano piu' senso..

M3r71n0
servirà sempre l'uomo o le sue fabbriche

quelle piene di automazione industriale, plc, tcp/ip, computer, server, etc.
Aaaaa certo certo
XD XD XD

Chirurgo Plastico

Ma con l intelligenza artificiale potrebbe nascere un robot stupido?
Nel senso, noi umani abbiamo l'intelligenza eppure molti non la sanno usare

cip93

Anche quando si creasse un robot con intelligenza artificiale ci sarà sempre oneclickasd a rompere quindi il robottino ti si ritorcerà contro con un coltello per farti vedere l'asd a meno che tu non installi un adware con le palle..

cip93

Tanta ingnoranza anche un computer non esonera dai compiti prestabiliti, tranne windows vista e 8 una cagata abissale

Michele M.

Le leggi di Asimov non sono perfette e anzi hanno delle dalle più volte evidenziate in vari film/testi

Box2Tux #Linux

Infatti. Non intendevo la programmazione classica. Però per partire, ci vuole qualcosa.

Sagitt

Robot diversamente abili

simo

Non è abbastanza politically correct. Meglio: Intelligenza artificiale "speciale" o Intelligenza diversamente artificiale

franky29

no per la legge della natura vince sempre il più forte

franky29

auguri

Sagitt

Una IA non potrà riprodursi, solo costruire altre macchine e per costruire altre macchine servirà sempre l'uomo o le sue fabbriche... Dirai ne costruiranno altre.. E noi le distruggeremo prima che aia troppo tardi

Sagitt

Guardati in giro... L'uomo è un essere intelligente eppure solo pochi sì possono definire tali XD

Sagitt

Diciamo intelligenza artificiale controllata

Sagitt

IO ROBOT

Emanuele

Infatti le superano,ma soli alcuni

Marco

Non é questione di intelligenza,ma di buon senso...

bldnx

Pura fantascienza.......come fai ad imporre il rispetto delle regole ad una cosa che puoi definire "intelligente"?

M3r71n0

Si... da qualcosa che la normale programmazione di oggi non prevede proprio.

C'è sicuramente un qualcosa di iniziale scritto da un umano, ma la programmazione classica prevede (anzi, deve obbligatoriamente prevedere) che sia il programmatore a scrivere il risultato del programma. L'AI, assolutamente no!
Puoi chiedergli il risultato di un problema che non è mai esistito fino al momento in cui glielo chiedi.
Capisci la differenza? La parte più complicata del discorso.
A prescindere dalle istruzioni che gli dai, il risultato sarà lei a darlo senza che tu gli dica quale deve essere.
Altrimenti che AI sarebbe.

Andr022

Sono pienamente d'accordo.

Alessandro L

Quella é una delle 5 regole per fare l'articolista.

Box2Tux #Linux

Si, ma deve partire da un punto.

Box2Tux #Linux

So cosa è successo, ma quello era un chat bot, che è molto semplice da modificare, sai quanti ne ho creati in python, possono essere complessi quanto vuoi, ma sempre semplici if, for e chiamate ad un db sono.

Box2Tux #Linux

Certo, ma sempre da qualcosa inizia ;), non sarà codice binario, ma alla fine, deve incominciare da qualcosa.

simo

l'intelligenza artificiale per definizione non può non compiere scelte che esonerano dalle regole. sennò non sarebbe intelligenza artificiale, ma un computer

Hebininja

è così.
e per dirla in modo semplice: non cercare trucchi per raggiungere i risultato, ma eseguilo come richiesto.

Emanuele

Ma le buone vecchie leggi di Asimov? Anche se scritte da uno scrittore mi sembravano molto sensate.

Maxhd2

Prima regola mai parlare dell'intelligenza artificiale...

M3r71n0

No. Non è proprio cosi.
Un pc tu gli dici: se 2 > 0 fai questo;
E questo può essere un programma.
Per l'AI stanno usando un altro sistema. Danno in pasto a circuiti senza logica dei problemi e i relativi risultati.
Problema - risultato; problema - risultato;
Quando gli dai un problemi e gli chiedi il risultato, ti risponderà per "assonanza" a quelli che gli hai dato.
Nella AI non ci sono relè o transistor che vanno a 1 o stanno a 0.
E' tutta un altra cosa

Andre

Certo, ma visto che il programma impara da solo a volte ci può essere qualche imprevisto, cerca un po' "microsoft tay" e vedi cosa è sucesso

M3r71n0

Tutto molto bello, se non fosse per un piccolissimo particolare.
Una buona parte delle scelte fatte dal genere umano (credo 50% ma non considerarlo) è fatta seguendo l'istinto e molto spesso non sono affatto logiche.
Credi d'avvero che non ci possa essere conflitto?

Andre

Certo, il problema è che non solo google sviluppa AI, ci sono grossi investimenti anche da parte dei militari che certo non intendono "educare l'AI a giocare pulito", se poi ti interessa la questione puoi dare un occhio anche questo articolo : http:// waitbutwhy .com/2015/01/artificial-intelligence-revolution-1.html che analizza un po' la situazione attuale e le aspettative dei più noti ricercatori di AI

Box2Tux #Linux

Si, ma inizialmente parte tutto da un programma

M3r71n0

Guarda, c'è solo un piccolo problema...
la differenza tra intelligenza artificiale e i pc di oggi sta tutta li.
l'AI non si programma tramite gli umani. Impara da sola ;)

Luciano Scarpa

Hai detto la tua. Rimane la tua.

Paolo

Vabbe l'importante è trovare per tempo Neo.. (F5)

Rhodos

Con l'Intelligenza Naturale (poca) di cui è fornito, l'uomo distruggerà la Terra prima che ci pensino le Macchine...

M.5.0 il

Sicuramente sarà così come dici...ho sbagliato io usando il termine "decide"...la mia ultima frase comunque non è da leggere collegata all'esperimento....è più una visione futura di vera intelligenza artificiale che rappresenta una vera minaccia per l'uomo...e per come la vedo io la cosa non è improbabile, anzi........anche se penso che il futuro più probabile è una fusione l'uomo/macchina...che è già iniziata con le protesi, ma che andrà sempre più in profondo

Alexander

qualunque cosa facciano, sarà sicuramente più matura questa intelligenza che quella di joel tlou

Box2Tux #Linux

Io sono giovane, speriamo non debba combattere con cosi di latta ;), perché qualche mio futuro collega li programmerà male xd

Gianni

e ci userebbero come batterie

M.5.0 il

Ok, ma è tutto per dire che la cosa può facilmente sfuggire di mano se solo qualche pazzo lo vuole

ciro

Ma non è intelligenza artificiale

M.5.0 il

E' ovvio che è solo una dimostrazione per accendere il dibattito...non ha altri sensori che vedono o capiscono cosa ha davanti

ciro

Non decide, è un'azione random che è diversa. E' stato programmato per agire randomicamente (cioè 1 volta ti punge e 20 no, o 25 volte di fila ti punge e 2 no e così via) cioè in maniera del tutto casuale. E' una cosa totalmente diversa dalla "volontà" di compiere il gesto

gianluca

Il computer non è una macchina intelligente che aiuta le persone stupide, anzi, è una macchina stupida che funziona solo nelle mani delle persone intelligenti.
U. Eco

Tiziano

Se mai un giorno le macchine prendessero il controllo del pianeta, di sicuro lo tratterebbero meglio...

Gianni

ma non è colpa del robot, sei tu che lo stuzzichi mettendoci il dito

Recensione Lenovo Tab Extreme: per la produttività ma anche l'uso multimediale

Recensione Realme 11 5G: ottima autonomia ma con alcuni limiti | VIDEO

Recensione OnePlus Open: il paradosso dei Fold | VIDEO

Il miglior cameraphone del 2023: le vostre e le nostre scelte | VIDEO