Puntata #20

Il podcast che parla del nostro futuro

Le staminali riparano il cervello e si può tornare a camminare dopo l’ictus!
Nessuno lo dice, ma tutti la usano: intelligenza artificiale ad Hollywood.
Conservazione criogenica: limiti etici e scientifici.
Janosch Amstutz con HoloMe reinventa la comunicazione.
Passato, presente e futuro dell’uso dell’intelligenza artificiale da parte di Facebook.



LE STAMINALI PER TORNARE A CAMMINARE

Nel mondo vivono circa 80 milioni di persone sopravvissute ad un ictus e 50 milioni di loro hanno subito danni permanenti che li rendono disabili. Una tragedia umana ed un costo devastante per le famiglie e per i sistemi sanitari, con centinaia di milioni di giornate di lavoro perse dai malati e spese da coloro che li devono assistere.  

Ecco perché è importante raccontare di come i risultati di un piccolo studio clinico offrono una speranza per le persone con disabilità motoria in seguito ad un ictus, dopo che Gary Steinberg  professore di neurologia alla Stanford University School of Medicine di Palo Alto, ed i suoi colleghi hanno scoperto che un’iniezione di cellule staminali adulte nel cervello è in grado di ripristinare la funzione motoria di tali individui, al punto che alcuni pazienti hanno riacquistato la capacità di camminare.

Mentre lo studio ha riguardato solo un piccolo numero di partecipanti, ovviamente colpiti da ictus, i risultati sono stati accolti con grande entusiasmo, con alcuni esperti sanitari che sostengono che questi esiti potrebbero portare a trattamenti che letteralmente cambiano la vita ai pazienti.

L’ictus ischemico è la forma più comune, che rappresenta circa l’87% di tutti i casi. Si verifica quando il flusso di sangue ricco di ossigeno al cervello viene bloccato, principalmente a causa di coaguli di sangue. L’altro 13% invece riguarda casi derivanti dalla rottura dei vasi sanguigni nel cervello.

In particolare, come l’ictus colpisce una persona, dipende da quale lato del cervello si verifica e dalla quantità di danni che provoca. Alcuni individui possono sperimentare debolezza temporanea del braccio o della gamba, per esempio, mentre altri possono perdere completamente la capacità di parlare o camminare. Secondo la National Stroke Association americana, circa 2 sopravvissuti ogni 3 avranno qualche forma di disabilità, e l’ictus è la principale causa di disabilità tra gli adulti americani.

Oggi, la battaglia si è combattuta sul tentativo di dissolvere in tempo il coagulo di sangue che blocca il flusso sanguigno al cervello. Il problema è che il trattamento in questione deve essere somministrato entro poche ore dalla comparsa dell’ictus, al fine di massimizzare la probabilità di recupero, un periodo di tempo che il dottor Steinberg e i colleghi, notano che purtroppo è spesso superato dal tempo necessario al paziente per arrivare in ospedale.

Se il trattamento non viene ricevuto in tempo, la possibilità di un recupero completo dall’ictus è minima. Ma nel nuovo studio, i ricercatori hanno scoperto che il trapianto di cellule staminali ha migliorato il recupero dei pazienti quando somministrato fino a 3 anni dopo l’ictus. Abbiamo detto anni, non ore, o giorni!

Per il loro studio, il team ha selezionato 18 persone, di età media di 61 anni – che avevano avuto un primo ictus da 6 mesi a 3 anni prima. Tutti i partecipanti avevano una disabilità motoria a causa del loro ictus; alcuni pazienti non erano in grado di muovere il braccio, mentre altri non erano proprio in grado di camminare.

Ogni paziente è stato sottoposto a trapianto di cellule staminali, che ha comportato la perforazione del cranio e l’iniezione di cellule SB623 in aree cerebrali danneggiate da ictus. Lo so che è un’operazione persino brutta a dirsi, senza che ci sia bisogno di entrare in alcun dettaglio tecnico, ma sentite cosa è successo dopo.

Ah, le cellule SB623 sono cellule staminali che sono state prelevate dal midollo osseo di due donatori e modificate per aumentare le funzioni cerebrali. Un vantaggio chiave per l’utilizzo di tali cellule staminali, è che non vengono respinte dal sistema immunitario, un aspetto non trascurabile quando si parla di trapianti.

Dopo la procedura, ogni paziente è stato monitorato attraverso immagini cerebrali, analisi del sangue e valutazioni cliniche.

Nel giro di un mese dalla procedura, i ricercatori hanno notato che i pazienti hanno iniziato a mostrare segni di recupero, e tali miglioramenti sono proseguiti per diversi mesi.

Fino a che punto? I pazienti su sedia a rotelle ora stanno camminando.

I ricercatori sono stati sorpresi di scoprire che dopo l’iniezione nel cervello, le cellule SB623 vivono solo per circa 1 mese, ma i pazienti hanno continuato a mostrare miglioramenti per diversi mesi. Il punto è che tali cellule depositate in prossimità delle aree del cervello danneggiate da ictus, stimolano la riattivazione o la rigenerazione del tessuto nervoso, che migliora la funzione motoria.

Questo potrebbe rivoluzionare completamente il nostro concetto di ciò che accade non solo dopo l’ictus, ma anche dopo lesioni cerebrali traumatiche e persino disturbi neurodegenerativi. Il cuore del risultato è di fatto aver scoperto che il cervello una volta danneggiato, può essere riparato, a differenza di quello che si è sempre pensato fino ad oggi. E se non è epocale questo!

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!


CIAK SI GIRA, L’INTELLIGENZA ARTIFICIALE AD HOLLYWOOD

Lo sapevate che Hollywood usa tranquillamente l’intelligenza artificiale per aiutare a decidere quali film realizzare? E quali attori utilizzare?

Il mondo del cinema è pieno di intriganti sliding doors, proprio per usare il titolo di un famoso film. Will Smith ha notoriamente rifiutato il ruolo di Neo in Matrix. Tom Selleck, non ancora famoso per il ruolo di Magnum PI, rifiutò di partecipare ad Indiana Jones, perché non interessato a fare l’archeologo per un film di ragazzini. Gwyneth Paltrow avrebbe dovuto essere la protagonista di Titanic e al posto di Tom Hanks in Forrest Gump doveva esserci Chevy Chase. Allo stesso modo, Pretty Woman doveva essere Molly Ringwald e non Julia Roberts. Mamma mia quante storie!

Un tema non solo per gli attori che si sono ritrovati a scegliere se accettare o cassare un copione, ma anche per i produttori che se negli esempi appena raccontati, hanno pescato il jolly riscuotendo gloriosi successi al botteghino, chissà quante volte, invece, avrebbero potuto scegliere meglio i loro protagonisti.

E ora, l’intelligenza artificiale sembra andare loro incontro. Cinelytic, startup con sede a Los Angeles ovviamente, è una delle tante aziende che promettono che l’intelligenza artificiale sarà un saggio produttore. Ha creato un database di dati storici sulle performance cinematografiche nel corso degli anni, per poi incrociarli con informazioni sui temi e i talenti chiave dei film, usando l’apprendimento automatico per capire i modelli di successo nascosti nei dati. Il software permette ai clienti di giocare a fantacalcio con il loro film, inserendo un cast, poi scambiando un attore con un altro per vedere come questo influisce sulle proiezioni del box office.

Cinelytic non è l’unica azienda che spera di applicare l’intelligenza artificiale al mondo del cinema. Negli ultimi anni, una moltitudine di aziende ha dato vita ad una serie di promettenti intuizioni simili. La belga ScriptBook, fondata nel 2015, dice che i suoi algoritmi possono prevedere il successo di un film semplicemente analizzando la sceneggiatura. La startup israeliana Vault, fondata lo stesso anno, promette ai clienti di poter prevedere quali demografie guarderanno i loro film seguendo, tra le altre cose, come i trailer vengono accolti online. Un’altra società chiamata Pilot offre analisi simili, promettendo di poter prevedere i ricavi al botteghino fino a 18 mesi prima del lancio di un film con “una precisione senza pari”.

E dopo le startup sono arrivati anche i Big. Lo scorso novembre, 20th Century Fox ha spiegato come ha usato l’intelligenza artificiale per rilevare oggetti e scene all’interno di un trailer e poi prevedere quale “micro-segmento” di pubblico avrebbe trovato il film più attraente.

Ma qualcuno ha fatto un po di fact checking?

ScriptBook ha condiviso con The Verge, fonte e ispirazione di questo articolo, le previsioni fatte per i film usciti nel 2017 e 2018. In un campione di 50 film, poco meno della metà ha realizzato un profitto e gli algoritmi di ScriptBook hanno correttamente indovinato se un film avrebbe fatto soldi nell’86% dei casi.

Un articolo accademico pubblicato su questo argomento nel 2016 sosteneva allo stesso modo che previsioni affidabili sulla redditività di un film possono essere fatte utilizzando informazioni di base come i temi e le stelle di un film. Senza scomodare quindi l’intelligenza artificiale. Non c’è bisogno di un sofisticato e costoso software per dirti che una stella come Leonardo DiCaprio o Tom Cruise migliorerà le possibilità che il film sia un successo.

E poi, altra critica è che anche gli algoritmi sono fondamentalmente conservatori. Poiché imparano analizzando ciò che ha funzionato in passato, non sono in grado di rendere conto dei cambiamenti culturali o di gusto che si verificheranno in futuro. Questa è una sfida in tutta l’industria dell’intelligenza artificiale. Poiché l’intelligenza artificiale impara dai dati del passato, la tesi è che non può prevedere i futuri cambiamenti culturali.

Ecco allora che usare l’intelligenza artificiale per giocare con il progetto di un film – scambiare attori, aumentare il budget e vedere come questo influisce sulla performance dello stesso, è utile perché apre una conversazione su approcci diversi, ma non è mai l’arbitro finale. Cosi dicono alcuni operatori che hanno provato questi software. Ed in questo fornisce quindi un contributo positivo di dialogo e confronto. Ma finisce qui.

Ma se questi strumenti fossero davvero così utili, perché non sono più ampiamente utilizzati? Michiel Ruelens data scientist di ScriptBook, suggerisce una caratteristica di Hollywood che potrebbe essere la causa: la timidezza. Le persone sono imbarazzate. In un settore in cui il carisma personale, il gusto estetico e l’istinto contano così tanto, ricorrere al freddo calcolo di una macchina sembra un grido d’aiuto o un’ammissione che ti manca la creatività e non ti interessa il valore artistico di un progetto.

L’intelligenza artificiale allora, se è usata sotto traccia da tutti senza far troppo rumore, comunque continua a conquistare fan ad Hollywood. Ed il merito, o la colpa, è di Netflix.

Il colosso dello streaming si è sempre vantato del suo approccio alla programmazione basato sui dati. Rileva in dettaglio le azioni di milioni di abbonati e ne conosce una quantità enorme. E’ impossibile dire se la posizione di Netflix sia giustificata, ma l’azienda sostiene che il suo algoritmo di raccomandazione da solo vale 1 miliardo di dollari all’anno, una montagna di soldi. E allora ecco che anche i produttori, cominciano a prestare attenzione agli algoritmi.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!


CONSERVAZIONE CRIOGENICA

In California, un paziente malato terminale che ha optato per la morte assistita è stato sottoposto a conservazione criogenica presso la Alcor Life Extension Foundation. Questa conservazione, la prima del suo genere, rappresenta una pietra miliare per i sostenitori della crionica, i quali sostengono che il diritto alla morte, paradossalmente, è una potenziale via verso una vita eterna.

Il 30 ottobre 2018, Alcor ha eseguito la sua 164a crioconservazione, quella di Norman Hardy di Mountain View. A Hardy fu diagnosticato un cancro terminale metastatico alla prostata, che si era diffuso alle ossa e ai polmoni. Come notato nel rapporto di Alcor, il suo “dolore era stato gestito male”, così ha optato per la morte assistita, che è stata legalizzata in California nel 2016 attraverso il End of Life Options Act.

Per Alcor, il caso è stata la prima volta che un malato che ha fatto la scelta della morte assistita si è rivolto alla criogenica, consentendo una pianificazione tale del momento del decesso da “ridurre il potenziale danno ischemico che può derivare da un processo di morte prolungato”. Infatti, più velocemente un paziente può essere messo in sospensione criogenica dopo la morte, meglio è, poiché l’improvvisa carenza di ossigeno comincia a distruggere i tessuti. Quindi, il tempo è cruciale. In questo caso, la scelta di Hardy di quando morire ha permesso ai suoi tessuti neurali di essere rapidamente conservati dopo la sua morte, o almeno, conservati al meglio di quanto le moderne tecnologie criogeniche permettano.

Allo stato attuale, sia chiaro, nessuno che ha optato per la crionica è mai stato riportato in vita, e non c’è né la certezza che possa mai accadere, né tantomeno la tecnologia per farlo. Ma nonostante i limiti tecnologici e le tremende incertezze, non ultime quelle etiche, oltre 1.200 clienti, sono stati disposti a pagare fino a 200.000 dollari per una conservazione a corpo intero e 80.000 dollari per una conservazione del capo, quest’ultima scelta da Hardy. Pensate che per compensare questi enormi costi, molti dei clienti Alcor stipulano una seconda polizza di assicurazione sulla vita, di cui Alcor è il beneficiario. Si pagano in vita i costi per la conservazione alla propria morte.

La procedura per preparare la testa di Hardy per la sospensione a lungo termine in una vasca di azoto liquido è stata “un buon successo”, ha osservato la Società. Le scansioni del cervello dopo la conservazione hanno mostrato una certa formazione di ghiaccio nel cervelletto e nei lobi frontali, il che non è l’ideale. Detto questo, il rapido passaggio dalla dichiarazione di morte al collocamento in una delle strutture in acciaio inossidabile ha significato che i danni da decomposizione al cervello di Hardy sono stati ridotti al minimo. Nel migliore dei casi, il team di risposta di Alcor inizia il processo di crioconservazione entro pochi secondi dalla dichiarazione di morte. Ma questo non sempre accade. In alcuni casi precedenti, la Società non è stata informata della morte di un suo cliente fino a giorni dopo, rendendo di fatto inutile il suo servizio.

La crioconservazione funziona rallentando il metabolismo di organi, cellule e tessuti fino al punto in cui non possono verificarsi ulteriori reazioni biochimiche, compresa la decomposizione. Il tema chiave è evitare il verificarsi di danni irrevocabili nel cervello durante i secondi e i minuti successivi alla morte, e quindi il cervello deve essere rapidamente portato a -196 gradi: un problema noto della crionica è il fatto che formazione di cristalli di ghiaccio, shock osmotico e danni alla membrana durante il congelamento e lo scongelamento rischiano di causare la morte cellulare. Per cercare di evitare questi potenziali problemi, si utilizza una soluzione di vetrificazione per ridurre al minimo la formazione di cristalli di ghiaccio. Idealmente questa vetrificazione evita completamente la formazione di ghiaccio in modo che l’intera massa di tessuto diventi un blocco di vetro indisturbato.

Ma perché se non abbiamo le tecnologie per riportare in vita domani un defunto conservato crionicamente, ci preoccupiamo tanto di pochi secondi o di qualche minuto oggi? Non avremo la tecnologia in futuro per risolvere anche questo problema?

Questo è un punto chiave delle teorie crioniciste. L’idea generale è che, mentre una persona può essere considerata legalmente morta, può non aver raggiunto la morte teorica dell’informazione, quella che avverrebbe se le strutture cerebrali venissero irrevocabilmente distrutte. In accordo con questo pensiero, una persona dovrebbe essere considerata morta solo quando le informazioni critiche nel suo cervello, le cose che rendono una persona una persona, non possono essere salvate. I crionicisti sostengono quindi che una persona che ha subito una crioconservazione di successo, pur essendo legalmente morta, non è teoricamente morta. La chiave, tuttavia, è garantire una crioconservazione “riuscita”, motivo per cui è così importante eseguire la procedura il più presto possibile dopo che la morte legale è stata dichiarata.

Alcuni crionicisti che sono malati terminali, sono a rischio di subire danni cerebrali estremi a causa della loro malattia, come nel caso del cancro al cervello. In questi casi, la cosiddetta morte cerebrale teorica dell’informazione – termine coniato dal crioncellista e futurista Ralph Merkle nel 1994 – sarà stata raggiunta se il cancro, ad esempio, distrugge funzioni cerebrali critiche che le tecnologie future, per quanto avanzate, non saranno in grado di recuperare e ripristinare. I neuroni che codificano i ricordi e la personalità sono un buon esempio. La logica conseguenza di questo approccio è che, un crionicista malato terminale potrebbe scegliere di morire prima che avvenga un danno cerebrale irrevocabile.

E qui chiaramente si aprono temi etici immensi: l’eutanasia, il poter decidere il momento della propria morte, addirittura anticipare la propria dipartita per evitare che una malattia faccia danni ulteriori. I pazienti che affrontano il compromesso di andare in sospensione crionica prima, per una migliore conservazione, potrebbero scegliere di morire troppo presto se sopravvalutano le possibilità di successo della crionica. Un tema davvero complesso che esula dagli scopi di questo podcast, che pur guardando alla criogenica come soluzione futuristica stimolante, non vuole in alcun modo prendere posizione su temi che richiedono competenze di gran lunga più approfondite delle mie.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!


HOLOME, JANOSCH AMSTUTZ

Professione futuro è la rubrica di The Future Of dedicata ad imprenditori, visionari ed innovatori che con le loro startup, istituzioni o più raramente da soli stanno contribuendo a disegnare intriganti scenari futuri. Se avessi prodotto questa sezione del podcast guardando al passato, avrei parlato di Leonardo da Vinci, Nikola Tesla, Alan Turing, Steve Jobs ma ho deciso di fare una scommessa sul futuro e raccontarvi quello che verrà.

Tra le figure e le startup da tenere sotto osservazione in questo 2019 e per gli anni a venire, ci sono indubbiamente Janosch Amstutz e la sua HoloMe. Questo ragazzo svizzero, che dalle foto assomiglia al famoso illusionista britannico Dynamo, è partito dal mondo della finanza, una provenienza per certi versi anomala per un visionario di soluzioni tecnologiche. E’ vero che ha esperienze come trader di commodities, ma anche in un fondo di venture capital londinese focalizzato su investimenti early stage che ha come payoff “investire in idee disruptive e nelle persone dietro di loro”.

E se mettiamo insieme una visione, l’esperienza nel mondo degli investimenti, i guadagni importanti che si possono fare come trader e lo scoppiettante panorama culturale londinese, ecco l’idea di HoloMe.

HoloMe Live è un sistema di telepresenza in tempo reale, dove la persona con cui stai comunicando appare di fronte a te, e tu di fronte a lei, sullo schermo del cellulare o sul monitor del portatile, come un corpo fotorealistico, perfettamente integrato nello spazio di fronte a te.

Già oggi funziona in streaming e pensate quanto sarà più facile con il 5G e man mano che i nostri dispositivi portatili continueranno a diventare sempre più potenti. La tecnologia utilizza una webcam o una telecamera telefonica per catturare il filmato, che viene elaborato in tempo reale sul cloud e presentato in un’applicazione di visualizzazione dall’altra parte. In buona sostanza una piattaforma di realtà aumentata ad alta definizione che porta un’esperienza tridimensionale percepita degli esseri umani nel vostro salotto o dovunque voi siate in un certo momento.

Janosch Amstutz forse gioca un po sull’hype della realtà aumentata quando dice che HoloMe potrebbe essere il più grande passo avanti nella comunicazione da quando è nato Skype, ma se andate a vedere i video, anche solo quelli pubblici che trovate su Youtube, fare una videocall dove il vostro interlocutore vi appare nella vostra stanza, nel vostro stesso ambiente, seduto sul divano di fronte a voi in maniera così realistica è un gamechanger.

Dice Amstutz “Gli esseri umani della realtà aumentata sono davvero più immersivi ed emotivi di qualsiasi altra tecnologia che è stata realizzata per quanto riguarda la consegna di un messaggio”. “Avere un essere umano nel proprio spazio, comunicare direttamente con te è molto più potente come mezzo”. Personalmente concordo.

Se avete ascoltato le puntate di The Future Of relative alla miniserie sul futuro degli assistenti virtuali, Alexa, Siri, Cortana e Google Assistant, ricorderete che il futuro che dipingo è quello dell’assistente digitale che prende vita, prende la forma personalizzabile di un corpo e di un volto a voi graditi e compare nel vostro ambiente, dapprima come immagine su una parete e poi come ologramma nello spazio, per dialogare con voi. Ecco, HoloMe è indiscutibilmente il primo passo verso questa visione.

HoloMe ha rilasciato sul mercato due prodotti distinti: HoloMe Pre-Recorded è una piattaforma automatizzata che permette alle aziende e ai creativi di creare senza soluzione di continuità scene di realtà aumentata con soggetti umani, e HoloMe Real-Time è uno strumento di comunicazione che permette la telepresenza umana ad alta definizione in streaming in tempo reale via mobile.

Oggi gli utilizzatori hanno prevalentemente natura professionale, società del campo dell’educazione, della moda in particolare, della cultura, artisti singoli ma possiamo aspettarci che lo strumento arrivi ad una diffusione di massa, passando magari dalle call di lavoro, a quelle private, appunto in stile Skype.

HoloMe per esempio, ha collaborato con la London College of Fashion’s Innovation Agency su un progetto a porte chiuse all’inizio della London Fashion Week 2019 per creare la prima sfilata di moda in realtà aumentata in tempo reale al mondo. Tradizionalmente, le esperienze AR si basano su contenuti preregistrati o animati che vengono sovrapposti in ambienti reali, ma questo progetto ha permesso a un numero selezionato di utenti in tutto il mondo di vedere un’esperienza di passerella in realtà aumentata mentre la sfilata si stava svolgendo.

Settimana scorsa, il cantante francese Amir ha pubblicato un video musicale per la sua canzone ‘5 minuti con te’ utilizzando la tecnologia di HoloMe. Amir intrattiene i suoi fan nel rivoluzionario video musicale prendendo appunto la forma di ologramma. Questo è il primo video musicale ologramma umano mai realizzato da un artista, che porta l’interazione dell’artista con i fan ad un livello completamente nuovo. Gli utenti sono in grado di registrarsi duettando e ballando con Amir al loro fianco mentre esegue la canzone. HoloMe ha sviluppato un’applicazione dedicata, in modo che i fan di Amir in tutto il mondo possano accedere all’esclusivo video musicale in realtà aumentata. Posso immaginare come questo strumento potrà cambiare il modo di fare storytelling in futuro, fondendo reale e finzione in modi sempre nuovi. E del resto HoloMe oggi si definisce una piattaforma che aiuta i brand a raccontare la loro storia nell’ambiente del consumatore, utilizzando ologrammi umani nella realtà aumentata. E mira a diventare un nuovo strumento di comunicazione. Insomma, se quando pensate agli ologrammi vi vengono in mente quelle figure eteree, dai contorni blu che danzano in una teca, come fenomeni da baraccone di un circo, spero di avervi convinto che le cose sono già cambiate. Perché il futuro è già qui.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!


FACEBOOK E L’INTELLIGENZA ARTIFICIALE

L’approccio di Facebook all’intelligenza artificiale è utilitaristicamente concentrato sul miglioramento delle funzionalità della piattaforma stessa e degli altri prodotti della casa di Menlo Park in California.

Il primo grandissimo tema è la tipologia di immagini che vengono caricate su Facebook in ogni istante. L’obiettivo è evitare il porno e la violenza. Il secondo sono i post veri e propri, con la loro parte verbale che può andare dalle fake news, all’odio, alle minacce, il variegato mondo del cyberbullismo. Tutte cose che se non vengono colte e rimosse rapidamente, diminuiscono il valore percepito dello strumento ed allontanano l’utente medio.

Facebook ha migliaia di revisori umani, ma se volesse tenere il passo di tutto quello che viene pubblicato, servirebbe un esercito ancora più vasto di persone. Ogni minuto vengono pubblicati oltre 40 mila post e 3.600 immagini.

Mike Schroepfer, Chief Technology Officer dell’azienda, afferma che la tecnologia è l’unico modo per evitare che i malintenzionati si approfittino del servizio. Con 2,3 miliardi di utenti abituali, avere tutto recensito dagli esseri umani sarebbe proibitivo, costoso e inquietante. “Per me l’IA è lo strumento migliore per implementare la nostra strategia: non so quale sia l’alternativa”, dice sempre Schroepfer.

E’ stato quindi costituito un team che utilizzando algoritmi di deep learning ha disegnato un software in grado di riconoscere la pornografia e gli esseri umani nudi. Dopo un anno e mezzo di lavoro, il tool era in grado segnalare i nuovi contenuti ai recensori prima che lo facessero gli utenti ed oggi dopo la necessaria automatizzazione il 96% delle immagini di nudo vengono automaticamente rilevate e scartate, prima che qualcuno le segnali.

Più difficile invece il tema del linguaggio, degli haters e della violenza verbale. Facebook serve utenti in oltre 100 lingue e, nessun software ad oggi, è in grado di cogliere tutte le sfumature verbali, le espressioni idiomatiche, lo slang che caratterizzano una lingua viva. Per 100 lingue contemporaneamente. Ed anche quando i progressi porteranno gli algoritmi ad avere la “libreria” completa di una lingua, la difficoltà resterà sempre mettere la frase nel giusto contesto. La stessa espressione può essere scherzosa o minacciosa, a seconda della situazione e per la macchina è difficilissimo capirlo.

Le soluzioni di intelligenza artificiale sperimentate da Facebook sono molteplici: includono un sistema chiamato Rosetta, annunciato quest’anno, che legge il testo che è incorporato in immagini e video; un altro progetto ha utilizzato miliardi di hashtag degli utenti di Instagram per migliorare i sistemi di riconoscimento delle immagini di Facebook; l’azienda ha anche usato esempi di post di bullismo su Facebook per addestrare un generatore di testo che a sua volta serve ad aiutare gli algoritmi di moderazione.

Non è nemmeno trascurabile lo sforzo di Facebook per mettere sotto controllo la parte live, le dirette. Dove il tempo di reazione deve essere ancora più contenuto. Perché francamente non bisogna lasciare nemmeno un secondo di audience ai terroristi, come quello di Christchurch che entra in una moschea ad uccidere persone innocenti.

Esiste poi una vasta gamma di utilizzi dell’intelligenza artificiale che Facebook usa per rendere il servizio più fruibile e divertente direttamente ai suoi utenti. Dai feed, alle news, ai tag, alle storie tutto quello che ci viene proposto ha una logica gestita da una macchina. Ultima delle piccole chicche, quella di aver inventato un algoritmo che prende la vostra foto scattata in quel nanosecondo che avete gli occhi chiusi e ve la ripropone quasi perfetta ad occhi aperti: una magia resa possibile da tutto quello che avete caricato in passato sulla piattaforma, comprese le foto ben riuscite, che la solita rete antagonista generativa usa per correggere il vostro volto.

Nel dietro le quinte invece Facebook sta competendo con Amazon e Google per sviluppare i propri chip di intelligenza artificiale, dopo aver riconosciuto che ha bisogno di un’elaborazione notevolmente più veloce per fare un passo avanti nell’intelligenza artificiale.

La necessità di chip AI più specializzati, progettati per eseguire singole operazioni con velocità fulminea e con un consumo energetico inferiore rispetto ai processori generici del passato, ha visto un’ondata di investimenti non solo da parte di Google, Amazon e Apple, ma anche di decine di start-up. E anche Facebook è scesa in campo.

A quanto pare l’obiettivo di Facebook è realizzare un assistente digitale all’interno della piattaforma che possa dialogare con gli utenti in maniera naturale, un significativo passo avanti rispetto agli attuali dispositivi a controllo vocale. E questo richiede una potenza di calcolo ed un consumo energetico importante.

Se mettiamo insieme i pezzi, vediamo che Facebook quindi, pioniera nel riconoscimento facciale, si è mossa per dotarsi di una AI capace di ottimizzare il funzionamento della piattaforma oggi e domani, sia a livello hardware che software, ma sempre lasciando il social network monoliticamente al centro di ogni progetto hardware e software. Una visione più ristretta e meno AI centrica di quella di Google, descritta nell’episodio precedente.

Quest’anno Facebook ha investito 7,5 milioni di dollari nell’AI Ethics Institute in Germania, a Monaco di Baviera. Considerando una serie di questioni etiche e normative che l’AI comporta, questo sembra un investimento intelligente, che forse è preludio di un approccio più maturo, consapevole e strategico dello strumento.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!


 

× Whatsapp