Prima che i robot ottengano più astuti, devono imparare dire il ` nessun’

Se è il vostro smartphone che si tiene al corrente dei vostri ristoranti asportabili favoriti, o il vostro browser Web che sorveglia che siti Web che visitate il più spesso, c’è probabilmente un pezzo di tecnologia nella vostra casa che sta imparando circa voi.

Come i computer trasformano dagli strumenti agli assistenti nel corso dei prossimi anni, i bisogni d’apprendimento della tecnologia che usiamo su base giornaliera stiamo andando svilupparci esponenzialmente. Questi servizi saranno più specializzati e portata molto di più che oggi – ma stanno andando dovere ottenere molto più astuti prima che facciano.

I sistemi informatici, l’intelligenza artificiale ed i robot dell’assistente dovranno colpire i libri su un’intera miriade di argomenti – conversazione umana, norme culturali, etichetta sociale e più. Gli odierni scienziati stanno insegnando a AI alle lezioni che dovranno guidare gli utilizzatori di domani ed il programma di corso non è che cosa prevedereste.

I primi punti verso AI più astuto

L’anno scorso, entro i confini del laboratorio di interazione del Umano-Robot alla Tufts University di Boston, un piccolo robot si è avvicinato al bordo di una tavola. Sopra il raggiungimento del questo precipizio, il robot ha notato che la superficie stava camminando sull’avuto su terminato ed ha detto il suo operatore, “spiacente, io non può fare quello.„

In tal modo, la macchina ha confermato che il lavoro effettuato da Matthias Scheutz e da Gordon Briggs era stato un successo. Le paia avevano precisato per dare al loro robot la capacità di rifiutare una richiesta presentata da un operatore umano, con il loro atto da tavolo del soggetto di istinto di conservazione che è una dimostrazione del sistema sul lavoro.

Il progetto Briggs e Scheutz’ fa parte di un ramo cruciale di ricerca su intelligenza artificiale. l’interazione del Umano-robot – a volte citata come HRI – è un elemento essenziale del nostro lavoro continuato verso l’applicazione pratica di AI. È facile da dimenticare ancora, con i robot in gran parte una preoccupazione ipotetica per la maggior parte, che queste macchine l’un giorno dovranno integrare con gli esseri umani che sono intese per assistere.

Relativo: Robot preveduti per sostituire circa cinque milione lavori da ora al 2020

L’insegnamento ad un robot come camminare è una cosa. L’insegnamento quello dello stesso robot quando è sicuro attraversare una strada è abbastanza differente. Quello è il centro del progetto realizzato da Scheutz e da Briggs. Hanno voluto dare ad un robot la capacità di rifiutare gli ordini che ha dato, se sembra che assolvere il compito lo inducesse a nuocere a.

Ad un essere umano, questo ha potuto sembrare come un elemento implicito dell’azione di muoversi intorno. Ma i robot non hanno “buonsenso.„

Importanza del ` di parola nessun’

L’insegnamento del robot rifiutare un ordine che lo invia che immerge alla sua sorte avversa è del vantaggio ovvio al robot ed inoltre a chiunque lo possiede. Ma la sua importanza raggiunge ben più profondo. Aiutando un robot dica che “no„ mezzi che lo aiutano impara giudicare le implicazioni delle sue azioni.

“Lo stesso modo non vogliamo gli esseri umani seguire ciecamente le istruzioni da altri esseri umani, noi non vogliamo i robot instructible effettuare gli ordini umani senza controllare che cosa gli effetti sono,„ Scheutz abbiamo detto le tendenze di Digital.

“Le istruzioni possono essere inadeguate in una situazione data per molte ragioni,„ lui sono continuato, “ma per di più perché potrebbero causare il danno agli esseri umani o alla proprietà di danno, compreso il robot stesso. Ragionando circa i risultati possibili di un’azione istruita, il robot ha potuto potere individuare le violazioni potenziali di norma ed il danno potenziale derivando dall’azione ed ha potuto tentare di attenuarli.„

Essenzialmente, quando il robot riceve la sua istruzione camminare in avanti, controlla che la richiesta contro le informazioni ha attuale. Se qualche cosa sembra strano, il robot può poi suscitare le sue inquietudini all’operatore umano, finalmente rifiutante il comando completamente se l’istruttore non ha dati extra per calmare i suoi timori.

Il processo scientifico non fa per orecchiabile un titolo quanto la minaccia di una rivolta del robot contro noi esseri umani. Giornali del tabloid come Daily Mail riferito sul lavoro di Scheutz con un titolo cartoonish che specula circa l’assoggettamento imminente delle nostre specie per mano dei overlords del robot. Qui al distacco siamo conosciuti per scherzare circa l’apocalisse del robot, anche. È solitamente nel buon divertimento, ma nei casi come questo, può nuocere alla capacità dei ricercatori di ottenere il loro messaggio.

Relativo: Abbiamo incontrato questi cuochi unici del robot a partire dal futuro ed abbiamo provato la loro cucina

“Ci saranno sempre risposte che prendono la ricerca dal contesto ed il fuoco che cosa sembra scomodo per noi, quale l’idea dei robot che disobbediscono i nostri comandi,„ su Scheutz ha detto in risposta al rapporto di Daily Mail. “Tuttavia, l’aspetto chiave della nostra ricerca che tali titoli orecchiabili trascurano è di insegnare al robot per rifiutare i comandi che non sono moralmente sani – e soltanto quelli. Per non essere disubbidiente in generale.„

Che cosa se, per esempio, un bambino piccolo dicesse un robot della famiglia di scaricare il caffè caldo sopra suo fratello piccolo come scherzo? L’assicurazione che questo non potrebbe avere luogo è vitale il successo di tutta la società producendo tale tecnologia per il mercato dei consumatori e è soltanto possibile se il robot ha una vasta base di dati delle norme sociali ed etiche da fornire di rimandi accanto alla sua capacità di dire “no„

Aggiunta degli strati di complessità

Gli esseri umani sanno per smettere di camminare quando si avvicina ad una goccia ripida, o perché è inadeguato douse un infante in caffè caldo. Le nostre esperienze ci hanno detto che cosa è pericoloso e che cosa è solo medio. Se abbiamo fatto o abbiamo detto circa qualcosa nel passato, possiamo disegnare sopra le informazioni che abbiamo messo via per informare il nostro comportamento in una nuova situazione.

I robot possono risolvere i problemi basati per stesso principio. Ma abbiamo ancora produrre un computer che può imparare come un essere umano – e perfino poi, imparare l’etica è un processo che richiede gli anni. I robot devono avere una vita dell’informazione disponibile a loro prima che siano liberati fuori nel mondo.

Relativo: Google sembra readying un servizio di messaggero armato con intelligenza artificiale

La scala di questo lavoro è vacillante, molto al di là di cui molte potrebbero prevedere. Così come insegnando al robot a come compiere qualsiasi compito stanno spedicendi per fare, c’è uno strato aggiunto di complessità offerto dalle molte difficoltà di interazione del umano-robot.

Andrew Moore è il decano della scuola dell’informatica alla Carnegie Mellon University. In quel ruolo fornisce l’appoggio per gli studenti di un gruppo 2.000 ed i docenti, molti di chi stanno funzionando nei campi relativi a robotica, all’apprendimento automatico ed al AI.

“Siamo responsabili dell’aiuto lo capiamo cui l’anno 2040 sta andando essere come di vivere dentro,„ mi abbiamo detto. “Così siamo inoltre responsabili dell’assicurarci che 2040 sia un anno molto buon da vivere dentro.„ Poichè è probabile che i robot dell’assistente svolgeranno un ruolo in quella visione del futuro, Moore ha abbondanza di esperienza nella relazione fra la macchina e l’utente. Per dare un’idea di come quel legame sta andando evolversi nei prossimi anni, usa l’esempio esperto dell’assistente dello smartphone.

Oggi, molti di noi portano uno smartphone che può rispondere alle domande come “chi è il presidente degli Stati Uniti corrente? „ e le domande più complesse gradiscono “quanto alto sia le figlie del presidente degli Stati Uniti’? „ Presto, vederemo che le azioni basate su queste domande diventano ordinarie. Potreste chiedere al vostro telefono per ordinare un nuovo pacchetto dei pannolini, per esempio.

Per dimostrare la fase seguente dello sviluppo, Moore presenta una domanda apparentemente innocua di esempio. “Ho tempo di andare gru a benna un caffè prima della mia riunione seguente?„

Più su AI: L’algoritmo di apprendimento automatico mette le parole di George W. Bush nella bocca di Barack Obama

“Sotto il cappuccio, c’è molta conoscenza che deve ottenere al computer in modo che il computer di rispondere alla domanda,„ Moore ha detto. Mentre l’odierna tecnologia può capire la domanda, il sistema ha bisogno di molti dati di rispondere. Che cosa è la linea come alla caffetteria? Come è il traffico? Che genere di bevanda l’utente ordina solitamente? Dando il computer accedi ai presente di questi dati alle sue proprie sfide.

I sistemi di AI hanno bisogno dell’accesso ad un gran quantità di informazioni – alcune di cui sia fuso in pietra, alcuna di cui sta cambiando continuamente – semplicemente per assolvere le mansioni che complesse ci attenderemo da loro durante appena alcuni anni.

Moore illustra questo punto confrontando il tono della voce che una persona potrebbe prendere quando parla capo al loro capo’, o un vecchio amico. Da qualche parte nelle vostre banche dati, c’è un nocciolo di informazioni che vi dicono che il precedente dovrebbe essere trattato con determinate indicazioni sociali che non sono secondo i bisogni quando parla con ultimi.

Sono roba semplice per un essere umano, ma qualcosa che debba essere infuso nel AI. E premendo il compito, più importante la precisione diventa. Chiedere ad un assistente se avete caffè è una cosa. Ma che cosa se foste ferito e necessario conoscere quale ospedale potrebbe essere raggiunto il più rapidamente – e possibilmente avuto bisogno dei robot aiutano per raggiungerlo? Un errore diventa improvvisamente pericoloso.

“È realmente abbastanza facile da scrivere un programma di apprendimento automatico dove lo preparate con i lotti degli esempi,„ ha detto Moore. “Quando avete fatto quel lavoro, finite con un modello. Quel impianti abbastanza bene e quando sviluppiamo un sistema come quello, parla dell’accuratezza del `’ ed usa le frasi come precisione del `’ ed il richiamo del `.’ La cosa interessante è, è abbastanza diretta ottenere le cose che sono 19 volte corrette su 20.„

“Per molte applicazioni, quella è la specie – abbastanza di buon. Ma, in molte altre applicazioni – particolarmente quando c’è la sicurezza in questione, o dove state facendo le domande molto complicate – voi realmente necessità il vostro sistema di avere 99,9 per cento di accuratezza.„

La fiducia dell’utente è inoltre un’edizione. “[Se] chiedete il ` di Google mi mostrate che i 15 vestiti rossi più popolari’ e getta sui risultati ed appena uno di loro è realmente un tostapane, quindi l’intero affare va in pezzi. Gli utenti smettono di fidarselo. „ Un utente che perde la fiducia in un robot è probabile smettere di usando interamente.

Vox populi d’istruzione

Anche disconsiderando le mansioni specifiche tutta l’singola implementazione è destinata per raggiungere, robot ed il bradipo avrà bisogno di un gran quantità di conoscenza di base di funzionare nel selvaggio. Tutto dalle indicazioni sociali alle norme di sicurezza deve essere impresso sopra i cervelli a macchina per assicurare il loro successo.

Fortunatamente, altri campi stanno dando una mano in alcuni elementi di questo curriculum di calcolo. “Con le cose gradisca la navigazione e con l’analisi umana di espressione facciale, c’è una disciplina scientifica attuale che realmente ha molti dati reali,„ ha detto Moore. I diversi progetti di ricerca possono ri-essere purposed spesso, anche.

“Gli algoritmi che stiamo lavorando sopra sono generali,„ Matthias Scheutz mi ha detto, riferendosi alla ricerca lui e Gordon Briggs principale alla Tufts University. “Possono applicarsi in tutto il dominio, finchè il robot ha le rappresentazioni necessarie delle azioni e delle norme per quel dominio.„

I moduli che potrebbero dare ad un robot la capacità di riconoscere le espressioni umane, o fermi bruscamente prima di cadere fuori una tavola, certamente hanno loro usi. Tuttavia, ciascuno approvvigionerebbe ad una parte molto piccola dei bisogni di una macchina per il funzionamento non supervisionato. Un OS generalizzato potrebbe presentare un livello di base di vox populi che potrebbe essere diviso facilmente fra le implementazioni differenti.

“Uno dei finanziatori principali di questo genere di lavoro è un gruppo che è costituito un fondo per molte altre cose che sono risultato essere importanti,„ ha detto Moore. “Che è DARPA. Hanno una serie di grandi progetti andare in cui chiamano vox populi del ` per robotica. `„

Se il bradipo ed i robot dell’assistente stanno andando trasformarsi in in una realtà in un futuro non troppo lontano, una certa versione di questo vox populi del ` per piattaforma di robotica’ è probabile essere una componente cruciale. Ha potuto anche essere la chiave a vasta approvazione della corrente principale.

C’è abbondanza di lavoro da fare prima che ci sia una base di conoscenza che può sostenere la prima onda dei robot del consumatore. Il prodotto finale potrebbe essere anni di distanza, ma i fondamenti stati necessari per facilitare la sua creazione non sono la fantascienza.

Inoltre orologio: Star Wars: La forza si sveglia: Legga questo prima che guardiate

Permetta prego al Javascript di guardare questo video

Fonte: Prima che i robot ottengano più astuti, devono imparare dire il ` nessun’

Cosa pensi di questa notizia? Dì la tua su Facebook!

Precedente I 10 ordini delle notifiche, come rivelatore a Reddit Successivo Questa cassa del telefono si illumina a tempo a musica, ready per infastidire ognuno dietro voi ai concerti