domenica 16 giugno 2013

L'intelligenza del futuro: l'integrazione uomo-computer

Tranquilli, non sto parlando di cyborg. Sembra però che il massimo dell'intelligenza non possa aversi da uomini o computer singolarmente presi ma dalla loro integrazione, addirittura simbiosi. Agli uomini manca la capacità di memorizzare e rintracciare una mole mostruosa di dati e ai computer manca la capacità di uscire dagli schemi. Metteteli insieme e faranno sfracelli. Questa che segue è la TED conference di Shyam Sankar, direttore di una compagnia della Silicon Valley e grande estimatore di JCR Licklider, fautore della  IA, l'intelligent amplification.
Un esempio recente è Foldit, un videogioco che ha lo scopo di trovare la struttura delle proteine. Due anni fa, alcuni giocatori che probabilmente poco sapevano di biologia o chimica, hanno trovato la struttura di una proteasi che sfuggiva a supercomputer e scienziati [Kathib et al. 2011]: l'approccio misto, uomo per il lavoro creativo, computer per quello di routine, sembrerebbe dunque vincente.






Ecco la trascrizione della conferenza (trad. A.C. Minoli, rev. D. Berti).

Vi voglio raccontare di due partite a scacchi. La prima si è tenuta nel 1997 e Garry Kasparov, umano, perse contro Deep Blue, una macchina. Per molti è stata l'alba di una nuova era, un'era in cui gli uomini sarebbero stati dominati dalle macchine. Ma eccoci qui, 20 anni dopo, il grande cambiamento delle nostre relazioni con i computer è l'iPad, non HAL.
La seconda partita è un torneo di scacchi avanzati nel 2005 in cui uomo e macchina partecipavano insieme come compagni, anziché come avversari, se volevano. All'inizio i risultati erano prevedibili. Anche un supercomputer si faceva battere da un maestro con un laptop relativamente poco potente. La sorpresa arrivò alla fine. Chi vinse? Non un gran maestro con un supercomputer, ma due dilettante americani con tre laptop poco potenti. La loro capacità di manipolare e gestire i computer per esplorare fino in fondo specifiche mosse contrastò efficacemente la superiorità negli scacchi dei grandi maestri e la maggiore capacità di calcolo di altri avversari. È un risultato strabiliante: uomini comuni, macchine comuni che battono gli uomini e le macchine migliori. Comunque, non doveva trattarsi di un duello uomo-macchina? Invece si tratta di aziende e del giusto tipo di collaborazione.
Negli ultimi 50 anni abbiamo prestato molta attenzione alla visione sull'intelligenza artificiale di Marvin Minsky È certamente una visione sexy. Molti la condividono. È diventata la scuola di pensiero dominante nell'informatica. Ma entrando nell'era dei grandi dati, delle reti, delle piattaforme aperte e della tecnologia incorporata, vorrei suggerire che è tempo di rivalutare una visione alternativa sviluppata all'incirca nello stesso periodo. Parlo della simbiosi uomo-computer di J.C.R. Licklider, che forse dovremmo chiamare "aumento dell'intelligenza", A.I.
Licklider era un titano dell'informatica che ha avuto un profondo effetto sullo sviluppo della tecnologia e di internet. La sua visione era quella di permettere all'uomo e alle macchine di collaborare nel prendere decisioni, controllare le situazioni complesse senza la dipendenza e la mancanza di flessibilità di programmi predeterminati. Notate quella parola "collaborare". Licklider non ci incoraggia a prendere un tostapane e a farlo diventare Data di "Star Trek", ma a prendere un umano e renderlo più capace. Gli umani sono straordinari -- il nostro modo di pensare, il nostro approccio non lineare, la nostra creatività, le ipotesi iterative, tutto molto difficile, se non impossibile per i computer. Licklider intuitivamente se ne è accorto, osservando gli umani fissare obiettivi, formulare ipotesi, determinare criteri e fare valutazioni. Certo, in altre cose gli umani sono così limitati. Siamo terribili nelle misure, nel calcolo e nei volumi. Abbiamo bisogno di talento manageriale di alto livello per tenere insieme una band e suonare. Licklider aveva previsto che i computer avrebbero fatto i lavori ripetitivi richiesti per preparare l'accesso a informazioni e alla presa di decisioni.
Silenziosamente, senza far rumore, questo approccio ha reso possibili vittorie che vanno oltre gli scacchi. Il ripiegamento delle proteine, un tema che ha in comune con gli scacchi un'incredibile vastità -- esistono più modi di ripiegare una proteina del numero di atomi nell'universo. È un problema che può cambiare il mondo con profonde implicazioni sulla nostra capacità di comprendere e trattare le malattie. E per questo compito, la forza bruta di un supercomputer semplicemente non è sufficiente. Foldit, un gioco creato da informatici, spiega il valore di questo approccio. Dilettanti, non-tecnici, non-biologi con un videogioco riorganizzano visivamente la struttura della proteina permettendo al computer di gestire le forze atomiche e le interazioni e identificare i problemi strutturali. Questo approccio batte il computer la metà delle volte e pareggia il 30% delle volte. Di recente Foldit ha fatto un grande scoperta scientifica decifrando la struttura del virus Mason-Pfizer della scimmia. Una protease, la cui determinazione sfuggiva da più di 10 anni, è stata scoperta da questi tre giocatori nel giro di qualche giorno, probabilmente il più grande progresso scientifico proveniente da un videogioco.
L'anno scorso, sul sito delle Torri Gemelle, è stato aperto il memorial dell'11 settembre. Mostra i nomi di migliaia di vittime utilizzando un bellissimo concetto detto "adiacenze significative". Posiziona i nomi uno accanto all'altro a seconda delle loro relazioni: amici, famiglia, colleghi. Metterli tutti insieme è quasi una sfida matematica; 3500 vittime, 1800 richieste di adiacenze, l'importanza delle specifiche fisiche complessive e l'estetica finale. La prima volta che è stato riportato dai media, il merito dell'impresa è stato attribuito a un algoritmo dello studio di design Local Projects di New York. In realtà è un po' più sottile. Mentre è stato usato un algoritmo per sviluppare la struttura sottostante, gli umani hanno usato quella struttura per realizzare il risultato finale. In questo caso, un computer aveva valutato milioni di possibili disposizioni, aveva gestito un sistema di relazioni complesse, tenendo traccia di un'ampia serie di misure e variabili, permettendo agli umani di concentrarsi sul design e sulle scelte di composizione. Più vi guardate intorno, più vedete ovunque la visione di Licklider. Che sia la realtà aumentata nel vostro iPhone o il GPS nella vostra auto, la simbiosi uomo-computer ci rende più capaci.

Cosa si può fare per migliorare la simbiosi uomo-computer? Si può cominciare con inserire gli umani nel processo. Invece di pensare a quello che un computer farà per risolvere il problema, creare anche la soluzione intorno a quello che farà un essere umano. Facendo questo, ci si rende presto conto di aver passato il tempo sull'interfaccia uomo-macchina in particolare nell'eliminare l'attrito di questa interazione. Di fatto, questo attrito è più importante del potere dell'uomo o del potere della macchina nel determinare le capacità complessive. Ecco perché due dilettanti con qualche laptop hanno battuto facilmente un supercomputer e un maestro. Quello che Kasparov chiama processo è un sottoprodotto dell'attrito. Migliore è il processo, minore è l'attrito. La variabile decisiva diventa la minimizzazione di questo attrito.

Prendete un altro esempio: grandi quantità di dati. Tutte le interazioni al mondo vengono registrate da una serie crescente di sensori: il vostro telefono, la vostra carta di credito, il vostro computer. Il risultato sono tanti dati, e in realtà ci forniscono l'opportunità di capire più a fondo la condizione umana. La maggiore enfasi di molti approcci ai grandi dati si concentra su, "Come memorizzare questi dati? Come cercare all'interno di questi dati? Come processare questi dati? Queste sono domande necessarie, ma non sufficienti. L'imperativo non è scoprire come calcolare, ma cosa calcolare. Come si impone l'intuizione umana su dati di questa dimensione?

Ancora una volta, cominciamo con l'inserire l'essere umano nel processo. Quando PayPal ha iniziato ad operare, la sua più grande sfida non era, "Come trasferisco i soldi online?" Era, "Come lo faccio senza farmi intercettare dal crimine organizzato?" Perché è così sfidante? Perché mentre i computer possono imparare ad intercettare e identificare le frodi sulla base di schemi, non possono imparare a farlo sulla base di schemi che non hanno mai visto prima e il crimine organizzato ha molto in comune con questo pubblico: gente brillante, implacabili, pieni di risorse, spirito imprenditoriale -- (Risate) e una differenza enorme e importante: lo scopo. Così, mentre i soli computer possono prendere tutto tranne i più brillanti truffatori, prendere i più svegli fa la differenza tra un successo e un fallimento.

Ci sono una serie di problemi come questo, quelli con avversari adattabili. Si presentano raramente, se non mai, secondo uno schema ripetibile distinguibile dai computer. Invece, c'è una componente interna di innovazione o disturbo, e questi problemi sono sempre più seppelliti nei dati.

Per esempio il terrorismo. I terroristi si adattano continuamente alle nuove circostanze, e nonostante quello che vedete in TV, questi adattamenti, e il loro rilevamento sono fondamentalmente umani. I computer non rilevano nuovi schemi e nuovi comportamenti, lo fanno gli esseri umani. Gli esseri umani, usando la tecnologia, testano ipotesi, cercano indizi chiedendo alle macchine di fare per loro delle cose. Osama bin Laden non è stato catturato da un'intelligenza artificiale. È stato catturato da persone brillanti, piene di risorse, scrupolose in collaborazione con varie tecnologie.

Per quanto interessante possa sembrare, dai dati non si può estrarre una risposta. Non c'è il tasto "Trova Terrorista", e più si integrano dati da fonti diverse da formati di dati diversi, da sistemi diversi, meno efficace è l'estrazione dei dati. Invece, si dovranno cercare dati e cercare indizi, e come aveva previsto Licklider tempo fa, la chiave per ottenere grandi risultati è il corretto tipo di collaborazione e Kasparov si è reso conto che significa minimizzare l'attrito dell'interfaccia.

Questo approccio rende possibili cose come setacciare i dati disponibili provenienti da fonti diverse, identificare le relazioni chiave e metterle in un unico punto, una cosa che è sempre stata praticamente impossibile da fare. Secondo qualcuno ci sono implicazioni terribili sulla privacy e sulle libertà civili. Secondo altri preannuncia un'era di maggiore privacy e protezione delle libertà civili, ma la privacy e le libertà civili sono fondamentali. Bisogna tenerlo presente, e non possono essere trascurate, anche con le migliori intenzioni.

Esploriamo con un paio di esempi l'impatto che hanno avuto di recente le tecnologie sulla simbiosi uomo-computer.

Nell'ottobre del 2007, gli Stati Uniti e le forze alleate hanno fatto irruzione in un rifugio di al Qaeda a Sinjar al confine siriano con l'Iraq. Hanno trovato documenti segreti: 700 note biografiche di combattenti stranieri. Questi combattenti stranieri avevano lasciato le loro famiglie nel Golfo, in Africa del nord e orientale per unirsi ad al Qaeda in Iraq. Questi documenti erano moduli compilati da umani. I combattenti stranieri li avevano compilati per unirsi all'organizzazione. Si è scoperto che anche al Qaeda ha la sua burocrazia. (Risate) Rispondevano a domande del tipo, "Chi ti ha reclutato?" "Qual è la tua città natale" "Che tipo di lavoro cerchi?"

In quest'ultima domanda si è scoperta una cosa sorprendente. La maggior parte dei combattenti stranieri cercavano di diventare attentatori suicidi per i martirio -- molto importante, visto che tra il 2003 e il 2007 l'Iraq aveva 1382 attentatori suicidi, un'importante fonte di instabilità. Analizzare questi dati era difficile. Gli originali erano fogli di carta in arabo che dovevano essere scannerizzati e tradotti. La complessità del processo non consentiva di ottenere risultati significativi in tempi ragionevoli usando solo persone, PDF e tenacia. I ricercatori hanno dovuto sfruttare le loro menti umane insieme alla tecnologia per scavare, per esplorare ipotesi non ovvie, e effettivamente sono emersi indizi. 20% dei combattenti stranieri erano libici, 50% di questi provenivano da un'unica città in Libia, molto importante considerando che le statistiche precedenti riportavano quel numero al 3%. Ha aiutato anche a focalizzarsi su una figura di crescente importanza in al Qaeda, Abu Yahya al-Libi, un anziano ecclesiastico del gruppo dei combattenti islamici libici. Nel marzo del 2007 ha tenuto un discorso dopo il quale è cresciuta la partecipazione dei combattenti libici stranieri.
In maniera molti intelligente, anche se meno ovvia, rivoltando i dati che avevano in testa, i ricercatori sono stati in grado di esplorare le reti di coordinamento in Siria che si occupavano di accogliere e trasportare verso il confine i combattenti stranieri. Erano reti di mercenari, non di idealisti, che coordinavano per trarne un profitto. Per esempio, ai combattenti stranieri sauditi addebitavano più che ai libici; soldi che altrimenti sarebbero andati ad al Qaeda. Forse gli avversari avrebbero interrotto la loro rete se avessero saputo di essere traditi da jihadisti.
Nel gennaio 2010 un devastante terremoto del 7° grado ha colpito Haiti, il terzo terremoto di tutti i tempi in termini di mortalità, ha lasciato 1 milione di persone, 10% della popolazione, senza un tetto. Un aspetto apparentemente ininfluente tra tutte le iniziative umanitarie diventò sempre più importante quando cominciarono ad arrivare cibo e acqua. Ad Haiti gennaio e febbraio sono mesi secchi, eppure molti campi avevano sviluppato bacini d'acqua. La sola istituzione con le informazioni dettagliate delle piane alluvionali di Haiti era stata distrutta nel terremoto, dirigenti compresi. La domanda era quindi: quali campi sono a rischio, quante persone ci sono in questi campi, quali sono i tempi delle alluvioni, e considerate le risorse e le infrastrutture limitate, quali sono le priorità nella riallocazione? I dati erano incredibilmente eterogenei. L'esercito degli Stati Uniti aveva informazioni dettagliate solo di una piccola sezione del paese. Online c'erano dati del 2006 da una conferenza sui rischi ambientali, altri dati geo-spaziali, nessuno dei quali era integrato. L'obiettivo era identificare campi per l'allocazione secondo le priorità. Il computer doveva integrare una grande quantità di dati geospaziali, dati dai social media e informazioni di organizzazioni umanitarie per rispondere alla domanda. Implementando un processo ad alto livello, quello che altrimenti sarebbe stato un lavoro di tre mesi per 40 persone è diventato un lavoro semplice di 40 ore per 3 persone,tutte vittorie per la simbiosi uomo-computer.
Siamo a più di 50 anni dalla visione del futuro di Licklider, e i dati suggeriscono che dovremmo essere entusiasti di affrontare i problemi più difficili di questo secolo, uomo e macchina che collaborano. Grazie. (Applausi) (Applausi)


 Khatib, F.; Dimaio, F.; Cooper, S.; Kazmierczyk, M.; Gilski, M.; Krzywda, S.; Zabranska, H.; Pichova, I. et al. (2011). "Crystal structure of a monomeric retroviral protease solved by protein folding game players". Nature Structural & Molecular Biology 18 (10): 1175. doi:10.1038/nsmb.2119

3 commenti:

  1. Interessantissimo e assolutamente condivisibile per quel po' che ne posso sapere io.
    La parola magica è "collaborazione" alla quale aggiungerei anche l'aggettivo "bidirezionale". Che sia l'AI o in qualsiasi altro campo... due e/o più teste ragionano meglio di una. C'è in questo TED buona parte della nuova filosofia di programmazione e l'esempio di Foldit è assolutamente emblematico: tu pensa se non fosse stato previsto di "registrare" l'eventualità che l'utente potesse trovare combinazioni non previste, soprattutto, pensa se non fosse stata data piena libertà all'utente di creare combinazioni in modo libero ovvero "svincolato" da controlli preventivi d'errore. Chi programma (un po' alla vecchia maniera) sa bene che deve cercare di prevedere azioni "errate" che possono crashare il software; parte degli algoritmi stanno lì proprio a far questo, a gestire gli errori ed è corretto che sia così. Ma adesso immaginiamo che gli errori possano non essere semplici errori da correggere, ma nuove strade che gli algoritmi non avevano previsto (come hanno fatto quelli di Foldit), beh, ecco che abbiamo bidirezionalità; non è più SOLO il programma a decidere cosa è giusto o sbagliato. La nuova filosofia di programmazione suggerisce di non considerare più l'errore o l'azione sbagliata come qualcosa da correggere riportando l'utente sulla strada corretta (quella programmata), ma di studiare e valutare l'input "anomalo" (e qui interviene l'uomo), prendere una decisione (che il programma da solo non può prendere) ed eventualmente integrare con nuovi dati e algoritmi.
    La macchina aiuta l'uomo (nei limiti in cui un altro uomo l'ha predisposta) e l'uomo, utilizzandola, aiuta la macchina ad evolversi.
    E il bello (almeno per me che non sogno macchine che sostituiscano l'uomo)) è che, anche in questo processo d'evoluzione, alla fine la macchina è e sarà sempre una macchina ed è SEMPRE e comunque l'uomo il "perno" attorno al quale le intelligenze ruotano, è SEMPRE e comunque l'uomo a prendere le decisioni.

    Un salutone
    Marco

    RispondiElimina
  2. Condivisibile intervento, Marco. Osserva però che non è detto ci siano limiti all'evoluzione dell'intelligenza delle macchine (in rapporto all'evoluzione dell'intelligenza umana). Mentre per quanto riguarda il cervello vi è chi questi limiti li ha posti, soprattutto per quanto riguarda le dimensioni che potrebbe raggiungere, non si può dire se un software non potrà, in futuro, sviluppare questa capacità tipicamente umana, di uscire cioè dagli schemi (pensa, per esempio, alla logica fuzzy) visto che per quanto riguarda dimensioni e velocità di calcolo, contrariamente a noi, non ha limiti insormontabili (se non quelli della fisica).

    RispondiElimina
  3. Assolutamente d'accordo su tutto. Quello che cercavo di rimarcare e che anche tu hai evidenziato, è che il vero limite delle macchine è l'evoluzione dell'intelligenza umana. Aumenteranno le dimensioni e le velocità di calcolo (fisica permettendo) delle macchine, ma questo non equivale per forza ad un aumento di intelligenza artificiale. Ci saranno maggiori possibilità di memorizzazione dati e maggiore velocità di elaborazione degli stessi, ma se "l'omino" non fora le schede nel modo corretto (algoritmi=intelligenza UMANA) ci si fa ben poco con l'infinità dei dati e le super velocità. Che le macchine possano auto apprendere ormai è storia; il problema è capire bene cosa si intende per auto apprendimento. Voglio dire: la macchina da sola non sa cosa e come deve apprendere, è sempre l'omino che deve "insegnarglielo".
    Se poi un giorno verrò smentito e le macchine si evolveranno indipendentemente dall'omino, beh, allora sarà il caso che cominci a preoccuparmi sul serio.

    RispondiElimina

Come si dice, i commenti sono benvenuti, possibilmente senza sproloqui e senza insultare nessuno e senza fare marketing. Puoi mettere un link, non a siti di spam o phishing, o pubblicitari, o cose simili, ma non deve essere un collegamento attivo, altrimenti il commento verrà rimosso. Grazie.

LinkWithin

Related Posts Plugin for WordPress, Blogger...