Dì al tuo gattino cosa pensi dentro: l'effetto scatola nera
Tecnologia

Dì al tuo gattino cosa pensi dentro: l'effetto scatola nera

Il fatto che gli algoritmi avanzati di intelligenza artificiale siano come una scatola nera (1) che butta via un risultato senza rivelare come è avvenuto preoccupa alcuni e sconvolge altri.

Nel 2015, a un gruppo di ricerca del Mount Sinai Hospital di New York è stato chiesto di utilizzare questo metodo per analizzare un ampio database di pazienti locali (2). Questa vasta collezione contiene un oceano di informazioni sui pazienti, risultati dei test, prescrizioni mediche e altro ancora.

Gli scienziati hanno chiamato il programma analitico sviluppato nel corso del lavoro. Si è formato sui dati di circa 700 persone. umano e, quando testato in nuovi registri, si è dimostrato estremamente efficace nel predire la malattia. Senza l'aiuto di esperti umani, ha scoperto schemi nei registri ospedalieri che indicano quale paziente è sulla strada per una malattia, come il cancro al fegato. Secondo gli esperti, l'efficienza prognostica e diagnostica del sistema era molto superiore a quella di qualsiasi altro metodo noto.

2. Sistema di intelligenza artificiale medica basato su database di pazienti

Allo stesso tempo, i ricercatori hanno notato che funziona in modo misterioso. Si è scoperto, ad esempio, che è l'ideale per riconoscimento dei disturbi mentalicome la schizofrenia, che è estremamente difficile per i medici. Questo è stato sorprendente, soprattutto perché nessuno aveva idea di come il sistema di intelligenza artificiale potesse vedere così bene la malattia mentale basandosi solo sulle cartelle cliniche del paziente. Sì, gli specialisti erano molto soddisfatti dell'aiuto di un diagnostico della macchina così efficiente, ma sarebbero molto più soddisfatti se capissero come l'IA arriva alle sue conclusioni.

Strati di neuroni artificiali

Fin dall'inizio, cioè dal momento in cui è diventato noto il concetto di intelligenza artificiale, c'erano due punti di vista sull'IA. Il primo suggeriva che sarebbe stato molto ragionevole costruire macchine che ragionassero secondo principi noti e logiche umane, rendendo il loro funzionamento interno trasparente a tutti. Altri credevano che l'intelligenza sarebbe emersa più facilmente se le macchine avessero appreso attraverso l'osservazione e la sperimentazione ripetuta.

Quest'ultimo significa invertire la tipica programmazione informatica. Invece del programmatore che scrive i comandi per risolvere un problema, il programma genera proprio algoritmo in base ai dati del campione e al risultato desiderato. I metodi di apprendimento automatico che in seguito si sono evoluti nei più potenti sistemi di intelligenza artificiale oggi conosciuti hanno appena seguito il percorso, di fatto, la macchina stessa si programma.

Questo approccio è rimasto ai margini della ricerca sui sistemi di intelligenza artificiale negli anni '60 e '70. Solo all'inizio del decennio precedente, dopo alcuni pionieristici cambiamenti e miglioramenti, Reti neurali "profonde". ha iniziato a dimostrare un miglioramento radicale nelle capacità della percezione automatizzata. 

Il deep machine learning ha dotato i computer di abilità straordinarie, come la capacità di riconoscere le parole pronunciate con la stessa precisione di un essere umano. Questa è un'abilità troppo complessa per essere programmata in anticipo. La macchina deve essere in grado di creare il proprio "programma" da formazione su enormi set di dati.

Il deep learning ha anche cambiato il riconoscimento delle immagini del computer e migliorato notevolmente la qualità della traduzione automatica. Oggi viene utilizzato per prendere ogni tipo di decisione chiave in medicina, finanza, produzione e altro ancora.

Tuttavia, con tutto questo non puoi semplicemente guardare all'interno di una rete neurale profonda per vedere come funziona "dentro". I processi di ragionamento in rete sono incorporati nel comportamento di migliaia di neuroni simulati, organizzati in dozzine o addirittura centinaia di strati intricati e interconnessi..

Ciascuno dei neuroni nel primo livello riceve un input, come l'intensità di un pixel in un'immagine, e quindi esegue i calcoli prima di emettere l'output. Vengono trasmessi in una rete complessa ai neuroni del livello successivo - e così via, fino al segnale di uscita finale. Inoltre, esiste un processo noto come regolazione dei calcoli eseguiti dai singoli neuroni in modo che la rete di allenamento produca il risultato desiderato.

In un esempio spesso citato relativo al riconoscimento dell'immagine del cane, i livelli inferiori di IA analizzano caratteristiche semplici come la forma o il colore. Quelli superiori affrontano problemi più complessi come la pelliccia o gli occhi. Solo lo strato superiore riunisce tutto, identificando l'intero set di informazioni come un cane.

Lo stesso approccio può essere applicato ad altri tipi di input che consentono alla macchina di apprendere se stessa: suoni che compongono le parole nel parlato, lettere e parole che compongono le frasi nel testo scritto, o un volante, per esempio. movimenti necessari alla guida di un veicolo.

L'auto non salta nulla.

Si cerca di spiegare cosa accade esattamente in tali sistemi. Nel 2015, i ricercatori di Google hanno modificato un algoritmo di riconoscimento delle immagini di deep learning in modo che invece di vedere gli oggetti nelle foto, li generasse o li modificasse. Eseguendo l'algoritmo all'indietro, volevano scoprire le caratteristiche che il programma usa per riconoscere, ad esempio, un uccello o un edificio.

Questi esperimenti, noti pubblicamente come il titolo, hanno prodotto rappresentazioni sorprendenti di (3) animali, paesaggi e personaggi grotteschi e bizzarri. Rivelando alcuni dei segreti della percezione della macchina, come il fatto che determinati schemi vengono ripetutamente restituiti e ripetuti, hanno anche mostrato come l'apprendimento automatico profondo differisca dalla percezione umana, ad esempio nel senso che espande e duplica artefatti che ignoriamo nel nostro processo di percezione senza pensare. .

3. Immagine creata nel progetto

Tra l'altro, dall'altro, questi esperimenti hanno svelato il mistero dei nostri meccanismi cognitivi. Forse è nella nostra percezione che ci sono varie componenti incomprensibili che ci fanno capire immediatamente e ignorare qualcosa, mentre la macchina ripete pazientemente le sue iterazioni su oggetti “non importanti”.

Altri test e studi sono stati effettuati nel tentativo di "capire" la macchina. Jason Yosinski ha creato uno strumento che agisce come una sonda conficcata nel cervello, mirando a qualsiasi neurone artificiale e cercando l'immagine che lo attiva più fortemente. Nell'ultimo esperimento sono apparse immagini astratte come risultato di “sbirciare” in flagrante la rete, il che ha reso ancora più misteriosi i processi in atto nel sistema.

Tuttavia, per molti scienziati, un tale studio è un malinteso, perché, a loro avviso, per comprendere il sistema, per riconoscere i modelli e i meccanismi di un ordine superiore di prendere decisioni complesse, tutte le interazioni computazionali all'interno di una rete neurale profonda. È un gigantesco labirinto di funzioni e variabili matematiche. Al momento, è incomprensibile per noi.

Il computer non si avvia? Come mai?

Perché è importante comprendere i meccanismi decisionali dei sistemi avanzati di intelligenza artificiale? I modelli matematici vengono già utilizzati per determinare quali prigionieri possono essere rilasciati sulla parola, chi può ricevere un prestito e chi può ottenere un lavoro. Coloro che sono interessati vorrebbero sapere perché questa e non un'altra decisione è stata presa, quali sono i suoi motivi e il suo meccanismo.

ha ammesso nell'aprile 2017 nel MIT Technology Review. Tommy Yaakkola, un professore del MIT che lavora su applicazioni per l'apprendimento automatico. -.

Esiste anche una posizione legale e politica secondo cui la capacità di esaminare e comprendere il meccanismo decisionale dei sistemi di intelligenza artificiale è un diritto umano fondamentale.

Dal 2018 l'UE sta lavorando per richiedere alle aziende di fornire spiegazioni ai propri clienti sulle decisioni prese da sistemi automatizzati. Si scopre che a volte ciò non è possibile anche con sistemi che sembrano relativamente semplici, come app e siti Web che utilizzano la scienza approfondita per mostrare annunci o consigliare brani.

I computer che eseguono questi servizi si programmano da soli e lo fanno in modi che non possiamo capire... Anche gli ingegneri che creano queste applicazioni non possono spiegare completamente come funzionano.

Aggiungi un commento