Puntata #19

Il podcast che racconta il nostro futuro

La realtà virtuale aiuta nella diagnosi precoce e nella lotta all’Alzheimer.
I nanobot aumenteranno la durata della vita: vi spiego come.
Affective computing: quando l’intelligenza artificiale entra nella psicologia e nelle emozioni.
Il segnale 5G può disturbare la qualità delle previsioni meteo e farle regredire di 40 anni.
Passato, presente e futuro dell’uso dell’intelligenza artificiale da parte di Google.



LA REALTA’ VIRTUALE PER COMBATTERE L’ALZHEIMER

Una buona notizia per iniziare questa puntata. La realtà virtuale può aiutare ad identificare l’Alzheimer precocemente, in modo più accurato di quanto siano in grado di fare i migliori test cognitivi attualmente in uso, alla luce delle nuove ricerche dell’Università di Cambridge. Uno studio evidenzia il potenziale delle nuove tecnologie per aiutare a diagnosticare e monitorare il morbo, che colpisce ogni anno circa 50 milioni di persone nel mondo, generando un nuovo caso in media ogni 4 secondi.

Tutto inizia nel 2014, quando il professor John O’Keefe dell’UCL riceve, insieme ad altri scienziati, il Premio Nobel in Fisiologia e Medicina per la scoperta delle cellule che costituiscono il nostro sistema di posizionamento all’interno del cervello. Le nostre Google Maps interne per usare una metafora. In sostanza, questo significa che il cervello contiene una sorta di “navigatore satellitare” mentale che ci aiuta a sapere dove ci troviamo, dove siamo stati e come orientarci.

Una componente chiave di questo navigatore interno è una regione del cervello conosciuta come corteccia entorinale. Questa è una delle prime regioni ad essere danneggiata dall’Alzheimer, il che può spiegare, tra le altre cose, perché “perdersi” è uno dei primi sintomi della malattia.

Tuttavia, i test cognitivi fatti in clinica con carta e penna, e che servono per diagnosticare la malattia, non sono in grado di verificare le difficoltà di navigazione. L’Università dell’Ohio, per esempio, ha messo a punto un test chiamato SAGE test, che sta per Self-Administered Gerocognitive Examination, ovvero esame cognitivo geriatrico auto-amministrato: per farlo bastano carta e penna, ed un quarto d’ora del proprio tempo. Come questo esistono diversi altri esempi, ma chiaramente la tecnologia, i test, ed oggi appunto anche la realtà virtuale ci consentono di andare molto più a fondo nell’analisi.

Un team di scienziati del Dipartimento di Neuroscienze Cliniche dell’Università di Cambridge guidato dal Dr Dennis Chan, ha sviluppato e sperimentato un test di navigazione con la realtà virtuale in pazienti a rischio di sviluppare demenza. I risultati del loro studio sono pubblicati qualche giorno fa sulla rivista Brain.

Nel test, un paziente indossa una cuffia auricolare di realtà virtuale ed effettua un esercizio di navigazione, quindi di movimento, mentre cammina in un ambiente simulato. Il buon esito del compito richiede il funzionamento intatto della corteccia entorinale, così il team del dottor Chan ha ipotizzato che i pazienti con malattia di Alzheimer precoce avrebbero svolto l’attività con fatica o commettendo errori.

Il team ha reclutato 45 pazienti con lievi alterazioni cognitive, cioè che presentavano i primi sintomi della malattia, e li ha messi a confronto con 41 individui sani, dopo aver prelevato campioni di liquido cerebrospinale per cercare biomarcatori del sottostante morbo di Alzheimer. I biomarcatori sono delle componenti di alcune cellule che, se individuati oltre un certo livello, fanno da indicatore della probabilità che nei tre anni successivi si sviluppi la malattia. Una scoperta peraltro tutta italiana.

Tutti i pazienti con i primi sintomi lievi di Alzehimer si sono comportati peggio di quelli sani nel compito di navigazione: e fin qui nulla di rilevante rispetto alle aspettative degli scienziati.

Tuttavia, lo studio ha prodotto altre due osservazioni particolarmente importanti. In primo luogo, i pazienti affetti da lievi alterazioni con marcatori positivi, cioè quelli a maggior rischio di demenza futura hanno ottenuto risultati peggiori di quelli con marcatori negativi e quindi a basso rischio di demenza futura. Ma più che altro il test di movimento con la realtà virtuale è stato migliore nel distinguere tra questi pazienti con basso e ad alto rischio rispetto ai test attualmente utilizzati, per la diagnosi precoce di Alzheimer.

Questa sorta di risonanza magnetica virtuale potrebbe aiutare gli studi clinici di futuri farmaci volti a rallentare, o addirittura ad arrestare, la progressione del morbo di Alzheimer, ma anche per sviluppare applicazioni per individuare la malattia e monitorarne l’evoluzione stessa. Queste applicazioni potrebbero funzionare su smartphone e smartwatch. Ed oltre che a cercare cambiamenti nel nostro modo di muoverci nell’ambiente, queste applicazioni saranno in grado di tracciare varie altre attività quotidiane, come il sonno e la comunicazione, fornendo un quadro sempre più preciso man mano che viene alimentato da nuovi indizi. Ed il tutto senza provette, analisi, sostanze chimiche e con la possibilità di farlo nel day by day quotidiano.

Si parla spesso di Big Data applicati alla medicina ed alla salute ed è evidente che i generatori di tali Big Data siamo noi stessi: ora che i dati sono tecnicamente a disposizione, stiamo solo aspettando che tali tecnologie predittive, con software solidi, ed autorizzate dagli enti opportuni arrivino al nostro polso.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!


I NANOBOT E LA DURATA DELLA VITA

I nanorobot potrebbero essere la chiave per una durata di vita radicalmente prolungata.

La nanotecnologia è la scienza dell’ingegneria delle strutture di precisione molecolare e, in ultima analisi, delle macchine molecolari. Questa tecnologia è condotta su scala nanometrica, che va dagli 1 ai 100 nanometri. Un nanometro è un miliardesimo di metro, la larghezza di circa cinque atomi di carbonio annidati uno accanto all’altro. La nanomedicina è una branca della nanotecnologia e il suo strumento ultimo è il nanobot medico – un robot delle dimensioni di un batterio in grado di manipolare e controllare i materiali a livello atomico e molecolare. Mentre alcuni potrebbero considerare il futuro dei nanorobot come fantascienza, gli scienziati sottolineano che ognuno di noi è vivo oggi a causa degli innumerevoli nanobot biologici che operano all’interno di ognuno dei nostri trilioni di cellule. Li chiamiamo ribosomi – strutture sferiche all’interno di ogni cellula che sono essenzialmente macchine programmate con la funzione di leggere l’RNA messaggero e sintetizzare proteine specifiche. La nanorobotica medica è una grande promessa per la medicina rigenerativa e con uno sforzo diligente, i primi frutti della nanorobotica medica potrebbero cominciare ad apparire nel trattamento clinico già negli anni 2020.

Gli scienziati prevedono due modi in cui la nanotecnologia può essere in grado di prolungare la nostra vita. Uno è aiutare a sradicare malattie potenzialmente letali come il cancro, o malattie cardiache e l’altro è riparare i danni al nostro corpo a livello cellulare.

Oggi la nanotecnologia offre un’ampia gamma di possibilità per sviluppare mezzi personalizzati per ottimizzare la somministrazione di farmaci chemioterapici. Gli effetti collaterali dannosi della chemioterapia, come la soppressione immunitaria, la tossicità epatica o cardiaca, sono comunemente il risultato di metodi di somministrazione dei farmaci che non raggiungono accuratamente le cellule bersaglio previste.

Nel tentativo di superare questa sfida, i ricercatori hanno utilizzato una nanoparticella per consegnare il farmaco chemioterapico e un nanobot per guidare il vettore del farmaco verso il tumore. In primo luogo, i nanobot d’oro circolano attraverso il flusso sanguigno ed escono dove i vasi sanguigni fuoriescono – nel punto in cui si trovano i tumori del cancro. Una volta che i nanobot si accumulano al tumore, vengono utilizzati per concentrare il calore della luce infrarossa, riscaldando il tumore. Il calore aumenta il livello di una certa proteina legata allo stress sulla superficie del tumore. La nanoparticella che trasporta il farmaco è attaccata agli amminoacidi che si legano a questa proteina, quindi l’aumento del livello proteico sul tumore accelera l’accumulo delle nanoparticelle chemioterapiche che trasportano il farmaco nella sede del tumore.

Gli scienziati della Georgia Tech e dell’Ovarian Cancer Institute (Atlanta, Georgia) hanno ulteriormente sviluppato un potenziale nuovo trattamento contro il cancro che utilizza nanoparticelle magnetiche da applicare alle cellule tumorali, rimuovendole dal corpo, prima che possano alimentare nuovi tumori. Il trattamento, testato nei topi nel 2008, è stato ora testato utilizzando campioni di pazienti affetti da cancro umano.

Recentemente, i ricercatori della Durham University nel Regno Unito hanno usato i nanobot per perforare le cellule tumorali, uccidendole in soli 60 secondi. I bracci magnetici spingono i nanobot in avanti, mentre un campo magnetico ne controlla la direzione. I bot sono in grado di nuotare in un liquido più viscoso dell’acqua, imitando una varietà di fluidi corporei. Ora stanno sperimentando su microrganismi e piccoli pesci, prima di passare ai roditori. Gli esperimenti clinici sugli esseri umani dovrebbero seguire e si spera che i risultati possano avere il potenziale per salvare milioni di vite.

Un’altra importante condizione con cui ci troviamo di fronte e che rappresenta una delle maggiori cause di mortalità a livello mondiale, è la cardiopatia. In quest’area, ci sono diversi sforzi in corso. Un team di ricerca della Drexel University (Philadelphia, Pennsylvania) ha sviluppato una tecnologia nanorobotica che viene presa in considerazione per una missione importante: perforare le arterie ostruite e potenzialmente curare l’aterosclerosi. Questa condizione limita la capacità del sangue ricco di ossigeno di raggiungere gli organi vitali e aumenta il rischio di infarto o ictus. Questi nanobot sono costituiti da minuscole perle di ossido di ferro, unite in una catena. Per indurre il movimento attraverso il flusso sanguigno, la catena è esposta ad un campo magnetico esterno. Gli scienziati sono stati in grado di controllare la velocità, la direzione e le dimensioni della nanocatena in base alla natura dell’occlusione arteriosa. Nel 2016 sono stati fatti i primi test sui topi, e ora il team passerà a test su conigli e maiali. Essi prevedono che, se tutto va come previsto, già quest’anno lanceranno i bot nell’uomo.

Quando si tratta di nanotecnologie, forse la possibilità più eccitante è quella di riparare il nostro corpo a livello cellulare. Le tecniche di costruzione dei nanorobot sono attualmente in fase di sviluppo e gli scienziati sono fiduciosi che la riparazione delle nostre cellule sarà presto possibile. Il DNA nelle nostre cellule si danneggia con l’età, tuttavia i nanorobot potrebbero essere in grado di riparare il DNA danneggiato e permettere alle nostre cellule di funzionare correttamente.

Un nanorobot chiamato “cromallocita” è attualmente in fase di ricerca, e se funziona avrà la possibilità di estrarre tutti i cromosomi esistenti da una cellula malata o deteriorata e inserirne di nuovi al loro posto. Questo processo è chiamato terapia sostitutiva dei cromosomi. I cromosomi sostitutivi sono prodotti prima, al di fuori del corpo del paziente, utilizzando il genoma individuale del paziente come modello. Dopo l’iniezione, ogni dispositivo viaggia verso la cellula di destinazione e sostituisce i vecchi geni usurati con nuove copie di cromosomi, quindi esce dalla cellula e viene rimosso dal corpo. Pertanto, la terapia di sostituzione cromosomica potrebbe essere una prospettiva interessante per correggere il danno genetico accumulato e le mutazioni che portano all’invecchiamento in ciascuna delle nostre cellule.

In futuro, saranno costruiti sistemi basati su nanomacchine, in grado di entrare nelle cellule, percepire le differenze da quelle sane e apportare modifiche alla struttura. Le possibilità di queste nanomacchine per la riparazione delle cellule sono impressionanti. Inoltre, gli scienziati sono convinti che le macchine per la riparazione delle cellule potrebbero essere programmate con maggiori capacità con l’aiuto di sistemi di intelligenza artificiale. Potenti nanocomputer guideranno questi bot per esaminare, smontare e ricostruire le strutture molecolari danneggiate. Le macchine di riparazione non solo saranno in grado di riparare le cellule, ma anche i tessuti. Riparando tessuto dopo tessuto, possono essere riparati interi organi. Entro un paio di decenni, avremo nanobot nel nostro flusso sanguigno che ci manterranno sani a livello cellulare e molecolare. Questi dispositivi saranno un miliardo di volte più potenti di quanto lo siano oggi e continueranno il percorso accelerato verso un’estensione radicale della vita.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!


AFFECTIVE COMPUTING: SIGNIFICATO ED EVOLUZIONE

Affective computing è un termine che si riferisce alla sinergia tra intelligenza artificiale e psicologia, per comprendere e influenzare le emozioni. Infatti, un altro termine potrebbe essere intelligenza artificiale emozionale o calcolo affettivo. L’Affective computing è quindi un ramo specifico dell’intelligenza artificiale che si propone di realizzare calcolatori in grado di riconoscere ed esprimere emozioni. Si tratta di una nicchia che non è molto popolare oggi, ma che potrebbe diventarlo nel prossimo futuro.

Le prime sperimentazioni risalgono al 1995 dove la pioniera Rosalind Picard parla del calcolo affettivo con l’obiettivo di simulare l’empatia. Nel calcolo affettivo, la macchina dovrebbe interpretare lo stato emotivo degli esseri umani e adattare il suo comportamento ad essi, dando una risposta appropriata per quelle emozioni. La ricerca è necessaria nel campo dell’informatica affettiva per rilevare le emozioni da video, audio, testo, espressioni facciali e gesti. Il MIT Media Lab è la struttura di ricerca leader per gli stati cognitivi affettivi, specialmente attraverso la creazione di sensori indossabili e nuovi algoritmi di apprendimento automatico e la creazione di nuove tecniche per valutare la frustrazione, lo stress e l’umore indirettamente, attraverso l’interazione naturale e la conversazione.

Io vedo principalmente due ambiti di applicazione: l’interazione uomo-macchina e l’autoapprendimento. Interazione uomo-macchina che in futuro si potrà perfezionare solo se il robot sarà in grado di riconoscere le emozioni umane e quindi sviluppare, anche artificialmente, un minimo grado di empatia. Autoapprendimento, perché la grande mole di dati raccolti dai dispositivi indossabili ci vedrà sia come generatori di dati che come discepoli che imparano qualcosa da noi stessi a livello comportamentale o svelano potenziali problemi di salute.

Fino a poco tempo fa però, in termini pratici ed a livello di applicazioni per l’uomo comune ed il consumatore, l’apprendimento automatico non aveva molte cose da dire sulla psicologia. Esisteva ed esiste, naturalmente, un’analisi dei sentimenti, ma questo è tutto. Negli ultimi anni alcune aziende hanno cercato di combinare la psicometria con l’apprendimento automatico. La psicometria si occupa della teoria e della tecnica della misura in psicologia, incluse la misura della conoscenza, delle abilità, degli atteggiamenti e delle caratteristiche della personalità.

Per esempio, la Società Crowd Emotion realizza MeMo che è un sistema video che analizza il linguaggio del corpo per offrire contenuti altamente personalizzati, come comprendere le emozioni in corso ed il coinvolgimento dell’interlocutore. CloudEmotion API è una piattaforma basata su cloud per catturare, quantificare e interpretare i dati sulle emozioni: traccia le micro-espressioni facciali, le collega alle emozioni, misura l’eccitazione e lo stress, e molti altri parametri biometrici.

La progressiva diffusione dei wearables, e quindi di sensori a contatto con il nostro corpo o in prossimità dello stesso, sta rendendo più facile la raccolta delle informazioni. Per esempio, MyFeel ha creato un dispositivo indossabile che viene descritto come “il primo sensore di emozioni al mondo e consulente per la salute mentale”. Il bracciale utilizza diversi sensori, tra cui la conduttanza cutanea (che poi è la variazione delle caratteristiche elettriche della pelle), la frequenza cardiaca e la temperatura della pelle, al fine di raccogliere dati che vengono poi inseriti in un algoritmo che può dedurre lo stato emotivo dell’utente. Pip è un altro dispositivo in grado di rilevare i livelli di stress utilizzando un dispositivo speciale sulla punta delle dita. Lo fa rilevando le variazioni dell’attività elettrodermica. Visualizza le informazioni raccolte su un cruscotto ed aiuta a diventare più consapevoli di come i diversi eventi della vita influenzano i nostri livelli di stress e il benessere.   

Ciò che è molto importante è che per la prima volta possiamo registrare informazioni a livello molto granulare. Così, possiamo misurare direttamente gli effetti e i risultati. Mentre registrare tutte queste informazioni, come la frequenza cardiaca o i livelli di stress, è molto utile, ciò che è ancora più potente è il potenziale che queste tecnologie sbloccano nel comunicare con noi stessi e con gli altri. Attraverso l’uso di assistenti intelligenti come l’Alexa di Amazon, chatbot, smartphone, persino robot, saremo in grado di ricevere feedback sul nostro comportamento, diventare più consapevoli e prendere provvedimenti per migliorare il nostro benessere.

Ma se tutto questo vi sembra ancora abbastanza naturale, del resto stiamo parlando di rilevare informazioni generate dal nostro corpo e darle in pasto ad algoritmi che ci ritornano un senso delle cose non così scontato e visibile, l’affective computing mira ad entrare ancora più in profondità del nostro subconscio. L’idea più visionaria dietro l’informatica senza cervello è che i dispositivi intelligenti influenzeranno il nostro comportamento in modo subconscio. Come è possibile? Ci sono molte ricerche sul “trascinamento”, il concetto che attraverso l’uso delle frequenze possiamo controllare le onde cerebrali, la frequenza cardiaca e la respirazione.

E’ poco meno di un secolo che, grazie all’elettroencefalogramma, siamo capaci di misurare le onde cerebrali, cioè l’attività elettrica ritmica dei tessuti nel sistema nervoso centrale. Tali onde, a seconda della frequenza, le abbiamo classificate in onde tipiche degli stadi di sonno profondo, sonno REM, istanti prima dell’addormentamento, stato di veglia con attività mentale intensa o meno e stati di particolare tensione. Data l’importanza di tali onde nei processi cognitivi umani, gli scienziati hanno iniziato a sviluppare sistemi per decodificarle ed a sviluppare le cosiddette Brain Computer Interface, cioè quei dispositivi che consento a cervello e computer di dialogare. Quindi ricordatevi che, in futuro, quando userete il vostro wearable per darvi informazioni sulle vostre emozioni, state in realtà aiutando l’interazione tra uomo e macchina di prossima generazione.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!


IL 5G E LA QUALITA’ DELLE PREVISIONI METEO

Se foste chiamati a scegliere tra un segnale cellulare migliore e più veloce e una previsione meteo più accurata, cosa fareste? Questa è la domanda cui devono rispondere i funzionari del governo che devono decidere se mettere all’asta determinate frequenze o ascoltare i meteorologi che dicono che tale mossa potrebbe far tornare le previsioni del tempo indietro di 40 anni.

Questo perché il segnale del 5G potrebbe interferire con i satelliti meteorologici. Giovedì scorso in Campidoglio, Neil Jacobs, capo della NOAAA, ha detto che l’interferenza dei telefoni senza fili 5G potrebbe ridurre la precisione delle previsioni del 30%. La NOAAA è l’Amministrazione nazionale oceanica ed atmosferica, è una agenzia federale statunitense che si interessa di oceanografia, meteorologia e climatologia. Secondo le parole del suo capo, in audizione ad un comitato parlamentare sull’ambiente: “se si guarda indietro nel tempo per vedere quando la nostra capacità di previsione era circa il 30% in meno di oggi, era il 1980″.

E non è semplicemente una percentuale, è una riduzione che, per esempio, darebbe ai residenti costieri due o tre giorni in meno per prepararsi a un uragano, e potrebbe portare a previsioni errate sul percorso finale delle tempeste verso la terra. Quindi stiamo parlando di impatti che ricadrebbero sui cittadini.

La battaglia è quindi quella tra la Federal Communication Commission americana, che ha messo all’asta la banda di frequenza di 24 gigahertz e la NOAAA, spalleggiata da scienziati di tutto il mondo e dalla stessa NASA. Una battaglia che però dal punto di vista economico vale diversi miliardi di dollari e quindi collide con interessi economici non banali.

Da questa parte dell’Oceano il tema è analogo. Qualche giorno fa, riporta il Guardian, una preoccupazione simile è stata espressa da Tony McNally of the European Centre for Medium-Range Weather Forecast. “Il modo in cui stiamo introducendo il 5G potrebbe compromettere seriamente la nostra abilità di prevedere le grandi tempeste – spiega e questo può fare la differenza tra la vita e la morte. Siamo molto preoccupati.”

Dal punto di vista tecnico, il problema è che il vapore acqueo emette un debole segnale nell’atmosfera ad una frequenza di 23,8 GHz estremamente vicina a quella venduta per le comunicazioni wireless 5G di nuova generazione, appunto 24 GHz. Satelliti come il GOES-R di NOAA o il nostro European MetOp monitorano questa frequenza per raccogliere dati che vengono inseriti nei modelli di previsione. E lo fanno senza utilizzare stazioni di terra, ma appunto dallo spazio, garantendo così che l’intero pianeta venga coperto dal servizio. Purtroppo, non esistono soluzioni alternative: Jacobs ha detto al comitato della Camera che se l’asta non viene bloccata, si tradurrebbe in una perdita di dati del 77% dai sonar passivi a microonde del satellite NOAAA.

Ed anche se l’asta fosse ritardata o si andasse verso una vittoria del mondo scientifico oggi, purtroppo il problema non sarebbe risolto per sempre. La Federal Communication Commission prevede future aste 5G per le bande di frequenza radio vicino a quelle utilizzate per rilevare pioggia e neve (36-37 GHz), temperatura atmosferica (50,2-50,4 GHz), nuvole e ghiaccio (80-90 GHz). Dall’altra parte, ad onor del vero, va detto che nessuno studio ad oggi è stato pubblicato a dimostrazione dell’interferenza del segnale 5G su quelli raccolti dai satelliti meteorologici. E’ però anche interessante notare anche che la potenza di segnale che interessa le reti 5G statunitense ed europea è comunque superiore a quella raccomandata dall’Organizzazione Meteorologica Mondiale. Un brutto modo di fare, se devo essere sincero, e non certo il miglior auspicio per affrontare la conferenza mondiale che si terrà in Egitto, il prossimo Ottobre, su questo tema e dovrà dirimere le questioni, almeno in teoria. Perché dato che la tecnologia 5G è ancora agli albori, forse c’è ancora spazio adesso per trovare dei punti di incontro fra i vari interessi: perché la frequenza di trasmissione di una stazione di telefonia mobile può essere spostata, mentre la banda del vapore acqueo, fissata da precise e inviolabili leggi fisiche, non può essere cambiata.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!


GOOGLE E L’INTELLIGENZA ARTIFICIALE

I giganti del web, Facebook, Apple, Microsoft, Google ed Amazon hanno approcciato diversamente il tema dell’intelligenza artificiale, hanno obiettivi diversi ed hanno raccolto finora successi ed insuccessi, in alcuni casi, nei loro percorsi. Questo episodio, che sarà il primo di una serie dedicata a ciascuno dei player appena citati, nasce proprio con l’idea di iniziare a fare una panoramica su passato, presente e futuro dei giganti e della loro visione sull’intelligenza artificiale.

A partire da Google. Google ha una lunga storia con l’intelligenza artificiale ed ha l’ambizione dichiarata di diventare il primo player mondiale sull’argomento. Nel 2014, ha acquistato la startup britannica DeepMind per 400 milioni di dollari. La missione di Deep Mind era quella di formalizzare l’intelligenza al fine non solo di implementarla nelle macchine, ma anche di comprendere il cervello umano. Questa società offre una gamma di soluzioni basate sull’intelligenza artificiale, dal riconoscimento di immagini e della voce, ai videogiochi, al supporto alla ricerca scientifica e così via.

Google ha dichiarato che gli algoritmi di DeepMind, per esempio, hanno aumentato notevolmente l’efficienza del raffreddamento dei suoi data center. Inoltre, DeepMind gestisce le raccomandazioni personalizzate delle app di Google Play, ma ha anche collaborato con il team Android per la creazione di due nuove funzionalità disponibili nel sistema operativo mobile: le caratteristiche, Adaptive Battery e Adaptive Brightness, utilizzano l’apprendimento automatico per risparmiare energia e rendono i dispositivi che eseguono il sistema operativo più facile da usare. La parte interessante della storia non è tanto l’applicazione in se, ma il fatto che DeepMind ha utilizzato queste tecniche su scala così piccola, con applicazioni tipiche dell’apprendimento automatico che invece richiedono ordini di grandezza di potenza di calcolo decisamente maggiori.

Vediamo Google utilizzare l’intelligenza artificiale in una serie di attività di routine: risposte suggerite in Gmail e algoritmi di ricerca avanzata. Per dirla in parole semplice, sta portando l’intelligenza artificiale ad un uso quotidiano, nelle nostre attività più ordinarie, in molti casi senza che nemmeno ce ne accorgiamo.

Inoltre, l’azienda ha recentemente introdotto il suo sistema di Machine Learning TensorFlow e lo ha reso gratuito per qualsiasi sviluppatore. TensorFlow è una piattaforma open source end-to-end per l’apprendimento automatico. Ha un ecosistema completo e flessibile di strumenti, librerie e risorse per la comunità che consente ai ricercatori di esplorare e migliorare lo stato dell’arte del machine learning e agli sviluppatori di costruire e distribuire facilmente applicazioni basate su tale tecnologia.

Il più grande vantaggio che TensorFlow offre per lo sviluppo dell’apprendimento automatico è l’astrazione. Invece di occuparsi dei dettagli di implementazione degli algoritmi, o di trovare il modo giusto per collegare l’output di una funzione all’input di un’altra, lo sviluppatore può concentrarsi sulla logica complessiva dell’applicazione e TensorFlow si occupa dei dettagli dietro le quinte, rendendo lo sviluppo di applicazioni di intelligenza artificiale più facile e quindi potenzialmente disponibili ad una community più vasta di sviluppatori.

Poi abbiamo, ovviamente, i ben più noti, almeno al pubblico dell’uomo comune, Google Assistant e Duplex. Google Assistant è un assistente virtuale, simile ad Alexa, Cortana o Siri, che aiuta gli utenti a risolvere i loro compiti quotidiani in modo più efficiente e veloce. Ne ho parlato diffusamente a The Future Of ed è ampiamente riconosciuto, oggi, come il miglior assistente per tutta una serie di prestazioni ed attività.

Per quanto riguarda Duplex, si tratta di una voce AI-driven che aiuta gli utenti a fissare appuntamenti di lavoro tramite Google Assistant. Tutto quello che l’utente deve fare è chiedere a Google Assistant di prenotare un ristorante per una certa data e Duplex se ne occuperà. Per rendere il suono più umano, gli sviluppatori hanno anche aggiunto l’espressione “hum”, un po come quando una persona sta riflettendo su cosa dire e le pausa nel discorso. Poiché Duplex è entrato in funzione da poco, l’unica caratteristica che offre è la prenotazione del ristorante, ma gli sviluppatori, naturalmente, stanno progettando di espandere le funzionalità e fargli fare molte più cose.

Un’ultima cosa su Google e AI è l’iniziativa PAIR. PAIR è l’acronimo di People + AI Research, ed è fondamentalmente un centro di ricerca che ha come scopo rendere l’interazione tra persone ed intelligenza artificiale il più piacevole e vantaggiosa possibile.

E’ quindi facile intuire come Google abbia scelto un approccio AI centrico per orientare le sue prossime evoluzioni e trasformazioni, inevitabili in un mondo che cambia attorno ad una Società che è valutata oltre 300 miliardi di dollari. Infatti, Google dichiara che le sue priorità sono: centralità dell’intelligenza artificiale, il cloud, la costruzione dell’infrastruttura di rete, la pubblicità, i mercati emergenti, il mondo dei trasporti e della logistica, il mondo dell’assistenza sanitaria. Le tante potenziali modalità con le quali si possono combinare questi 7 pilastri, sono certo che ci sorprenderanno ancora a lungo negli anni a venire.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!