
17 Novembre 2016
23 Giugno 2016 78
L’intelligenza artificiale è uno degli campi della scienza più discussi nel mondo, ricco di potenzialità ma considerato anche “pericoloso” se non sviluppato seguendo criteri razionali e di buon senso.
Diverse grandi aziende stanno seguendone da vicino l’evoluzione, ritenendo l’AI un elemento fondamentale per l’evoluzione della tecnologia. Tra queste, Google risulta essere tra le più attive e impegnate, attenta nell’individuazione delle potenzialità da applicare all’interno delle piattaforme che la rendono leader in diversi ambiti del mercato.
Chris Olah di Google Research ha pubblicato un post in cui indica 5 regole fondamentali da seguire per rendere più sicuro lo sviluppo dell’intelligenza artificiale, realizzando così un breve – ma concreto – vademecum per tutti coloro che intendono investire in questo campo. Il post si rifà ad un paper tecnico redatto dalla stessa Google in collaborazione con OpenAI, Stanford e Berkeley dal titolo “Concrete Problems in AI Safety”.
Al fine di sviluppare approcci “pratici” e sicuri per l’ingegnerizzazione dei sistemi di AI, Olah ritiene che debbano essere date risposte ai seguenti 5 problemi:
Olah afferma nel post che lo sviluppo dell’AI ha già dato alcune risposte a queste problematiche, ma c’è ancora tanto da fare per in termini di efficacia e di sicurezza. E questo può essere ottenuto solamente tramite una sempre più stretta collaborazione tra i gruppi di ricerca attualmente impegnati in materia.
Commenti
Aggiungo la sesta:
6. Non farla incaxxare
Mai sentito parlare di technological singularity? Nel giro di pochissimo potremmo creare un'entita' talmente superiore da non accorgersi nemmeno della nostra esistenza (e quindi distruggerci pure senza farci caso).
Le leggi di Asimov mi pare abbiano piu' senso..
quelle piene di automazione industriale, plc, tcp/ip, computer, server, etc.
Aaaaa certo certo
XD XD XD
Ma con l intelligenza artificiale potrebbe nascere un robot stupido?
Nel senso, noi umani abbiamo l'intelligenza eppure molti non la sanno usare
Anche quando si creasse un robot con intelligenza artificiale ci sarà sempre oneclickasd a rompere quindi il robottino ti si ritorcerà contro con un coltello per farti vedere l'asd a meno che tu non installi un adware con le palle..
Tanta ingnoranza anche un computer non esonera dai compiti prestabiliti, tranne windows vista e 8 una cagata abissale
Le leggi di Asimov non sono perfette e anzi hanno delle dalle più volte evidenziate in vari film/testi
Infatti. Non intendevo la programmazione classica. Però per partire, ci vuole qualcosa.
Robot diversamente abili
Non è abbastanza politically correct. Meglio: Intelligenza artificiale "speciale" o Intelligenza diversamente artificiale
no per la legge della natura vince sempre il più forte
auguri
Una IA non potrà riprodursi, solo costruire altre macchine e per costruire altre macchine servirà sempre l'uomo o le sue fabbriche... Dirai ne costruiranno altre.. E noi le distruggeremo prima che aia troppo tardi
Guardati in giro... L'uomo è un essere intelligente eppure solo pochi sì possono definire tali XD
Diciamo intelligenza artificiale controllata
IO ROBOT
Infatti le superano,ma soli alcuni
Non é questione di intelligenza,ma di buon senso...
Pura fantascienza.......come fai ad imporre il rispetto delle regole ad una cosa che puoi definire "intelligente"?
Si... da qualcosa che la normale programmazione di oggi non prevede proprio.
C'è sicuramente un qualcosa di iniziale scritto da un umano, ma la programmazione classica prevede (anzi, deve obbligatoriamente prevedere) che sia il programmatore a scrivere il risultato del programma. L'AI, assolutamente no!
Puoi chiedergli il risultato di un problema che non è mai esistito fino al momento in cui glielo chiedi.
Capisci la differenza? La parte più complicata del discorso.
A prescindere dalle istruzioni che gli dai, il risultato sarà lei a darlo senza che tu gli dica quale deve essere.
Altrimenti che AI sarebbe.
Sono pienamente d'accordo.
Quella é una delle 5 regole per fare l'articolista.
Si, ma deve partire da un punto.
So cosa è successo, ma quello era un chat bot, che è molto semplice da modificare, sai quanti ne ho creati in python, possono essere complessi quanto vuoi, ma sempre semplici if, for e chiamate ad un db sono.
Certo, ma sempre da qualcosa inizia ;), non sarà codice binario, ma alla fine, deve incominciare da qualcosa.
l'intelligenza artificiale per definizione non può non compiere scelte che esonerano dalle regole. sennò non sarebbe intelligenza artificiale, ma un computer
è così.
e per dirla in modo semplice: non cercare trucchi per raggiungere i risultato, ma eseguilo come richiesto.
Ma le buone vecchie leggi di Asimov? Anche se scritte da uno scrittore mi sembravano molto sensate.
Prima regola mai parlare dell'intelligenza artificiale...
No. Non è proprio cosi.
Un pc tu gli dici: se 2 > 0 fai questo;
E questo può essere un programma.
Per l'AI stanno usando un altro sistema. Danno in pasto a circuiti senza logica dei problemi e i relativi risultati.
Problema - risultato; problema - risultato;
Quando gli dai un problemi e gli chiedi il risultato, ti risponderà per "assonanza" a quelli che gli hai dato.
Nella AI non ci sono relè o transistor che vanno a 1 o stanno a 0.
E' tutta un altra cosa
Certo, ma visto che il programma impara da solo a volte ci può essere qualche imprevisto, cerca un po' "microsoft tay" e vedi cosa è sucesso
Tutto molto bello, se non fosse per un piccolissimo particolare.
Una buona parte delle scelte fatte dal genere umano (credo 50% ma non considerarlo) è fatta seguendo l'istinto e molto spesso non sono affatto logiche.
Credi d'avvero che non ci possa essere conflitto?
Certo, il problema è che non solo google sviluppa AI, ci sono grossi investimenti anche da parte dei militari che certo non intendono "educare l'AI a giocare pulito", se poi ti interessa la questione puoi dare un occhio anche questo articolo : http:// waitbutwhy .com/2015/01/artificial-intelligence-revolution-1.html che analizza un po' la situazione attuale e le aspettative dei più noti ricercatori di AI
Si, ma inizialmente parte tutto da un programma
Guarda, c'è solo un piccolo problema...
la differenza tra intelligenza artificiale e i pc di oggi sta tutta li.
l'AI non si programma tramite gli umani. Impara da sola ;)
Hai detto la tua. Rimane la tua.
Vabbe l'importante è trovare per tempo Neo.. (F5)
Con l'Intelligenza Naturale (poca) di cui è fornito, l'uomo distruggerà la Terra prima che ci pensino le Macchine...
Sicuramente sarà così come dici...ho sbagliato io usando il termine "decide"...la mia ultima frase comunque non è da leggere collegata all'esperimento....è più una visione futura di vera intelligenza artificiale che rappresenta una vera minaccia per l'uomo...e per come la vedo io la cosa non è improbabile, anzi........anche se penso che il futuro più probabile è una fusione l'uomo/macchina...che è già iniziata con le protesi, ma che andrà sempre più in profondo
qualunque cosa facciano, sarà sicuramente più matura questa intelligenza che quella di joel tlou
Io sono giovane, speriamo non debba combattere con cosi di latta ;), perché qualche mio futuro collega li programmerà male xd
e ci userebbero come batterie
Ok, ma è tutto per dire che la cosa può facilmente sfuggire di mano se solo qualche pazzo lo vuole
Ma non è intelligenza artificiale
E' ovvio che è solo una dimostrazione per accendere il dibattito...non ha altri sensori che vedono o capiscono cosa ha davanti
Non decide, è un'azione random che è diversa. E' stato programmato per agire randomicamente (cioè 1 volta ti punge e 20 no, o 25 volte di fila ti punge e 2 no e così via) cioè in maniera del tutto casuale. E' una cosa totalmente diversa dalla "volontà" di compiere il gesto
Il computer non è una macchina intelligente che aiuta le persone stupide, anzi, è una macchina stupida che funziona solo nelle mani delle persone intelligenti.
U. Eco
Se mai un giorno le macchine prendessero il controllo del pianeta, di sicuro lo tratterebbero meglio...
ma non è colpa del robot, sei tu che lo stuzzichi mettendoci il dito