
San Francisco vieta il riconoscimento facciale. Un messaggio forte dalla Silicon Valley.
Attrazione fatale tra intelligenza artificiale e Borsa. Deep Learning e sentiment analysis.
La Darpa investe nelle Brain Machine Interface, il futuro che non ti immagini.
Elad Walach ed Aidoc. L’imaging medico ripensato per salvare vite umane.
Passato, presente e futuro dell’intelligenza artificiale in Amazon.
RICONOSCIMENTO FACCIALE VIETATO A SAN FRANCISCO
San Francisco è la prima città degli Stati Uniti a proibire il riconoscimento facciale, non vuole che le forze dell’ordine locali mettano le mani sulla tecnologia. Prima ancora che la stessa abbia effettivamente preso piede.
Martedì scorso, il Consiglio dei supervisori della metropoli californiana ha votato 8 a 1 per vietare alle sue agenzie governative di utilizzare la tecnologia del riconoscimento facciale, nonostante il fatto che nessuna delle agenzie attualmente utilizzi questa tecnologia. Infatti, la battaglia per il riconoscimento facciale a San Francisco è in gran parte teorica: attualmente il dipartimento di polizia non utilizza tale tecnologia, ed è in uso solo negli aeroporti internazionali e nei porti che sono sotto giurisdizione federale e non sono influenzati da questa nuova legislazione.
Una scelta in ogni caso molto chiara, che quasi sicuramente finirà di ispirare altri e potrebbe essere un vero e proprio apripista di un movimento contro il riconoscimento facciale. Anche perché San Francisco, non è un luogo a caso, visto che si scrive San Francisco, ma si legge Palo Alto, Mountain View e Silicon Valley in generale, cioè il cuore della rivoluzione digitale e tecnologica mondiale.
Il divieto vieta alle agenzie cittadine di utilizzare la tecnologia di riconoscimento facciale, o le informazioni raccolte da sistemi esterni che utilizzano la tecnologia. Fa parte di un più ampio pacchetto legislativo ideato per disciplinare l’uso delle tecnologie di sorveglianza in città, che richiede alle agenzie locali di creare politiche di controllo dell’uso di questi strumenti. Ci sono alcune esenzioni, tra cui una che darebbe ai pubblici ministeri una via d’uscita se i requisiti di trasparenza potessero interferire con le loro indagini. Quindi al di la dell’hype generato dai titoli dei giornali, San Francisco sta dicendo che il riconoscimento facciale non è da bannare a priori, anzi sembra porre l’enfasi sul fatto che servono politiche di controllo e di utilizzo corretto. Fino a che non si stabiliscono regole chiare, che poggiano su una tecnologia consolidata, ma non si può usare, ma in questo mi sembra già di vedere uno spiraglio per l’adozione future, se consapevole e corretta.
Probabilmente autorità ed aziende sono ugualmente colpevoli di questi risultati. Gli esperti dicono che è difficile sapere esattamente quanto sia diffusa la tecnologia negli Stati Uniti. Fondamentalmente, i governi e le aziende sono estremamente riservati nel dire dove viene utilizzata ed in che modo, con il risultato che il pubblico è quindi in gran parte all’oscuro della situazione attuale, e da qui il blocco in attesa di normare meglio il funzionamento della tecnologia.
Negli ultimi anni, la tecnologia di riconoscimento facciale è migliorata e si è diffusa alla velocità della luce, grazie all’aumento del cloud computing, all’apprendimento automatico e alle fotocamere digitali estremamente precise. Ciò ha significato nuove funzioni inimmaginabili per gli utenti di smartphone, che ora possono utilizzare il riconoscimento facciale per sbloccare i loro dispositivi e per etichettare e ordinare le foto. Ma questo non basta.
I sistemi di riconoscimento facciale sono progettati, come sapete, per identificare una persona in un’immagine o in un video mappando e analizzando le caratteristiche del viso stesso. È così che dovrebbero funzionare, ma, in realtà, i sistemi sono spesso incredibilmente imprecisi, soprattutto quando si cerca di identificare donne o persone con tonalità della pelle più scure.
Gli esperimenti di riconoscimento facciale non andati a buon fine del resto sono molti. A New York un tentativo di riconoscere gli automobilisti che transitano su un noto ponte cittadino hanno restituito zero riconoscimenti, alcuni sistemi che si vorrebbe utilizzare per consentire gli accessi nei palazzi non riescono a riconoscere le cosiddette “gender non conforming people”, come per esempio i transessuali, senza contare il rischio che uno scambio di persona porti all’arresto di persone innocenti, situazione che ha fatto coniare l’espressione “data violence”.
La mancanza di chiarezza e l’autonomia di utilizzo delle soluzioni ahimè giocano un ruolo chiave in questa storia.
Quando il sistema di riconoscimento facciale di Amazon Rekognition è stato messo a dura prova da studi che lo hanno trovato impreciso e parziale contro le donne e le persone di colore, l’azienda ha risposto dicendo che i ricercatori hanno travisato il modo in cui Rekognition potrebbe essere utilizzato dai clienti forze dell’ordine di Amazon.
Ma le forze dell’ordine ovviamente non erano d’accordo.
Amazon ha sostenuto che raccomanda alla polizia di fissare una soglia di confidenza minima rigorosa per le analisi, il che significa che il volto di qualcuno dovrebbe essere almeno del 99 per cento uguale a quello di un’immagine di un database per ipotizzare un match favorevole. Ma la polizia dell’Oregon ha detto che non si preoccupano di utilizzare tali soglie, un chiarimento che è supportato da una documentazione precedente che mostra come una corrispondenza del 96% fosse sufficiente. Colpa mia, colpa tua, ed intanto il riconoscimento facciale rischia di uscire dal radar delle tecnologie utili, almeno in occidente. Un peccato perché può fare cose davvero utili come proteggere e consentire accessi a certi luoghi, oltre che tante cose inutili, ma ludiche come taggare automaticamente le foto degli amici su Facebook. A me pare che la decisione riguardi più una certa sfiducia sull’uomo e sulla sua capacità di utilizzare la tecnologia piuttosto che sulla tecnologia stessa, voi cosa ne pensate?
CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!
[DISPLAY_ULTIMATE_SOCIAL_ICONS]
INTELLIGENZA ARTIFICIALE E PREVISIONI DI BORSA
L’intelligenza artificiale e la finanza sono fatte l’una per l’altra. L’apprendimento automatico e altre tecniche rendono più facile identificare modelli che altrimenti potrebbero non essere individuati dall’occhio umano, e la finanza è quantitativa per definizione, così che è difficile non trovare punti di contatto.
Le società finanziarie hanno investito molto nell’intelligenza artificiale in passato, e stanno continuando a farlo ora che machine learning e deep learning stanno entrando prepotentemente nel loro mondo. L’intelligenza artificiale nel trading azionario non è certamente un fenomeno nuovo, ma l’accesso alle sue capacità è stato storicamente limitato alle grandi aziende per poi diffondersi progressivamente fino ai consumatori.
Nel 2018 il Financial Times concordava sul fatto che oltre il 60% dei volumi di Borsa fosse generato da algoritmi. Ma qui è il caso di non farsi ingannare. Questa intelligenza artificiale è spesso una più o meno complessa concatenazione di algoritmi what-if, che dicono che se accade qualcosa, come per esempio un titolo raggiunge un determinato prezzo, allora deve accadere qualcosa di predeterminato, come per esempio vendere o acquistare quell’azione. Qualcosa che definire intelligente è una semplice esagerazione di marketing, mentre è sicuramente vero che tali robo-trader sono in grado di scansionare una vastissima gamma di informazioni ed agire o reagire in tempi rapidissimi. In questo sono decisamente migliori dell’uomo, ma non vanno oltre, si basano su schemi, logiche e tattiche già sperimentate e non prendono certamente alcuna vera decisione, nell’accezione che daremmo noi umani.
Si sono poi diffusi strumenti che supportano il trader andando ad analizzare dinamiche non-lineari e quindi difficili da cogliere per l’occhio umano, cercando le anomalie nei prezzi e nei volumi di certi titoli o di strumenti finanziari correlati, o anche solo riconoscendo con largo anticipo determinati trend e figure nell’oscillazione dei prezzi azionari. In questo caso la strategia la fa ancora l’uomo, ma la macchina aiuta l’operatore a non farsi scappare più nessuna informazione rilevante.
Tutti i trader hanno così tante notizie in streaming in tempo reale, che per estrarre informazioni da questi set di dati non strutturati il machine learning è diventato fondamentale. Ora ed in futuro sempre di più, potranno guardare a tutti questi set di dati non strutturati trasformandoli in una miniera di spunti commerciali, come prima non si poteva fare. Già oggi possono fare tutto questo con linguaggio naturale, il che significa che possono lasciare che il computer capisca la semantica e il significato di come la gente dice qualcosa…. anche a partire dalle semplici notizie o dai social dove gli individui, non necessariamente investitori, si esprimono in maniera positiva o negativa verso le aziende, e questo è qualcosa che chiamiamo analisi dei sentimenti.
La direzione è quella di costruire un sentiment score o punteggio del sentimento, il che significa che si raccolgono dati provenienti dai trader, dalle notizie, dai blog, e non solo dalle transazioni accadute o in corso sul mercato. Ad esempio, si possono raccogliere tutti i set di dati di insider trading, cioè quale CEO o quale dirigente sta comprando o vendendo azioni di una certa azienda, ed integrandoli con i dati transazionali ed i sentimenti dei trader o le informazioni provenienti dai social, si cerca di dare un punteggio che indichi cosa la gente pensi di un certo titolo.
Ed ovviamente poi bisogna trovare la correlazione, se c’è, tra il sentimento del titolo oggi e l’andamento del corso azionario domani. E qui spesso e volentieri casca l’asino. Se i dati storici per definizione non insegnano il futuro, la replicabilità di un modello basato sui sentimenti è piuttosto difficile. Come disse Richard Feynman una volta, “il primo principio è che non devi ingannare te stesso – e sei la persona più facile da ingannare”. In altri termini, stiamo dicendo che è difficile applicare il metodo scientifico alle previsioni dei rendimenti azionari.
In una bella intervista concessa a Lionbridge da un data scientist di nome Oscar Javier Hernandez, un dottorando di ricerca presso l’Università della British Columbia, emergono tutte le difficoltà di questo approccio. Hernadez ha raccolto diversi milioni di tweet in un periodo di un paio di settimane, per condurre una sentiment analysis su alcuni titoli automobilistici e capire se è vero che quando il sentiment verso un certo titolo azionario è positivo, il valore di tale titolo si alza oppure no. Ed i risultati sono stati misti.
A volte le azioni sono state molto sensibili ai sentimenti positivi di twitter, ma altre volte le azioni sono state più sensibili ai dati negativi di twitter. Ad esempio, nel caso di Tesla, Elon Musk ha annunciato il 7 agosto 2018 che intendeva rendere l’azienda privata, cioè uscire dalla Borsa, e questo ha portato una folla di utenti di twitter a parlare di Tesla. Molti dei tweet erano negativi durante questo periodo. Tuttavia, dopo l’annuncio il titolo è salito di gran lunga, indicando che i commenti negativi sono stati correlati con guadagni positivi delle azioni, almeno nel periodo analizzato.
E’ chiaro che prendendo un periodo relativamente breve ed un set di dati per definizione abbastanza ridotto, questo singolo test può non essere stato completamente probante, ma su un periodo più lungo, con più dati ed integrando un numero maggiori di fonti, personalmente ritengo che il machine learning possa fornire riscontri positivi.
Gli algoritmi arriveranno a capire i sentimenti, ad analizzare sempre più variabili che possono impattare sulla profittabilità di un business, dalla qualità dei manager alla previsione sul costo delle materie prime di produzione, e saranno capaci di reagire in tempo zero a qualsiasi variazione di aspettativa del mercato.
Probabilmente serviranno ancora anni di lavoro per arrivare ad un Santo Graal che poi tuttavia mi chiedo, a cosa servirebbe davvero? Chi venderebbe la soluzione o anche solo dei servizi per crackare la Borsa? Non si terrebbe per se la soluzione? Ed anche se scoprisse la combinazione di reti neurali ed algoritmi perfetti per guadagnare sempre, le autorità non bloccherebbero l’iniziativa? Ci sarebbe un principio di equità in questo esercizio o il primo che arriva fa saltare il banco? Come vedete ci sono più domande che risposte. Se posso azzardare un suggerimento a chi sta lavorando su questi sviluppi, la mia preghiera è sostituire la profittabilità di breve periodo con la sostenibilità di lungo periodo. Se è vero che fra 10 anni la lista di Fortune 500 sarà fatta da un numero sempre maggiore di azienda che oggi non esistono ancora, francamente più che guadagnare speculando su un movimento di breve, preferirei che i miei risparmi potessero durare ed avere un valore accresciuto quando sarò vecchio.
CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!
[DISPLAY_ULTIMATE_SOCIAL_ICONS]
BRAIN MACHINE INTERFACE
La DARPA sta investendo milioni di dollari nella tecnologia dell’interfaccia Cervello-Macchina e quando si butta sull’argomento l’agenzia americana per lo sviluppo di nuove tecnologie per uso militare, possiamo aspettarci qualcosa di stimolante o di molto inquietante negli anni a venire.
Le interfacce cervello – macchina, meglio note come BMI (cioè brain machine interface) sono soluzioni che facilitano il contatto ed il funzionamento congiunto di wetware biologico (appunto il nostro cervello ed i suoi tessuti) e computer esterni, trasformando gli esseri umani in veri e propri cyborg. Fino ad oggi abbiamo parlato di bracci robotici controllati dalla mente, di microelettrodi, “cerotti nervosi”, o “memory Band-Aids” che sono nati come trattamenti medici puramente sperimentali per coloro che hanno problemi al sistema nervoso.
Con il programma Neurotecnologia Neurochirurgica di nuova generazione (N3), invece, DARPA sta cercando di portare i BMI in campo militare. Gli obiettivi dichiarati sono:
- (primo) Un’interfaccia neurale che permetta un’interazione veloce, efficace e intuitiva a mani libere con i sistemi militari da parte di soldati abili
- (secondo) Le uniche tecnologie che saranno prese in considerazione sono quelle che prevedono un percorso realizzabile verso un eventuale utilizzo in soggetti umani sani
- (terzo) I risultati finali di N3 includeranno un sistema di interfaccia cervello-macchina completamente integrato e bidirezionale
Chiariamoci, The Future Of non sponsorizza in alcun modo ed anzi condanna l’uso bellico della tecnologia, ma se il progresso tecnologico discende dalle applicazioni militari ho comunque deciso di non ignorarlo, pensando che la parte buona della tecnologia potrà comunque andare a beneficio dell’uomo della strada in futuro.
Tornando a DARPA, questo mese, il progetto ha sfruttato sei squadre accademiche per progettare BMI radicalmente diverse dal conosciuto, per collegare le macchine al cervello di soldati abili. L’obiettivo è quello di abbandonare del tutto la chirurgia, riducendo al minimo qualsiasi intervento biologico, per collegare cervello e macchina.
Piuttosto che microelettrodi, che sono attualmente inseriti chirurgicamente nel cervello per dirottare la comunicazione neurale, il progetto sta esplorando segnali acustici, onde elettromagnetiche, nanotecnologie, neuroni geneticamente modificati e raggi infrarossi per i BMI di nuova generazione.
Si tratta di un cambiamento radicale rispetto al protocollo attuale, con un impatto potenzialmente emozionante o devastante. I BMI wireless potrebbero aumentare drasticamente le funzioni corporee di veterani con danni neurali o disturbi causati dal famigerato stress post-traumatico, o permettere ad un singolo soldato di controllare sciami di droni assassini con la mente.
Analogamente in campo civile, queste nuove tecnologie potrebbero rivoluzionare le cure mediche o fornire al movimento transumanista uno strumento inconcepibilmente potente che altera radicalmente la società, nel bene e nel male, in modi che oggi non abbiamo ancora compiutamente esplorato.
Ma in cosa consiste esattamente la ricerca? Il programma quadriennale N3 si concentra su due aspetti principali: interfacce neurali non invasive e minimamente invasive, per leggere e scrivere nel cervello.
Poiché le tecnologie non invasive si trovano sul cuoio capelluto, i loro sensori e stimolatori misureranno probabilmente intere reti di neuroni, come quelli che controllano il movimento. Questi sistemi potrebbero quindi permettere ai soldati di pilotare a distanza droni, robot di soccorso o i famosi Big Dog di Boston Dynamics. Il sistema potrebbe anche aumentare l’abilità multitasking nella gestione di armi multiple, simile a come gli esseri umani possono far funzionare un terzo braccio robotico oltre ai loro due naturali.
Al contrario, le tecnologie minuziosamente invasive consentono agli scienziati di fornire nanotransduttori senza interventi chirurgici: ad esempio, l’iniezione di un virus che trasporta sensori sensibili alla luce, o altri nanobot chimici, biotecnologici o auto-assemblati che possono raggiungere i singoli neuroni e controllare la loro attività in modo indipendente senza danneggiare i tessuti sensibili. L’uso proposto per queste tecnologie non è ancora ben specificato, ma come hanno dimostrato gli esperimenti sugli animali, controllare l’attività di singoli neuroni in più punti è sufficiente per programmare memorie artificiali di paura, desiderio ed esperienze direttamente nel cervello.
Le sei squadre attingeranno a tre diversi tipi di fenomeni naturali per la comunicazione: magnetismo, fasci di luce e onde acustiche. Integrando questi aspetti con l’esplorazione di neurochirurgia, intelligenza artificiale ed altre tecnologie all’avanguardia, la DARPA conta di realizzare soluzioni che oggi non esistono nemmeno nell’immaginazione dei più prolifici scrittori di fantascienza: trasmettere immagini visive da una persona all’altra, scrivere contenuti nel cervello, misurare i cambiamenti del percorso della luce nel cervello per correlarli con l’attività cerebrale per imparare a leggere i comandi del nostro cervello, convertire i segnali elettrici dai neuroni in segnali magnetici e viceversa e chi più ne ha più ne metta.
Saremo capaci di fare di queste tecnologie un uso pacifico? Nel 2012, sul pianeta terra, le guerre hanno ucciso 120.000 persone, ed il diabete 1,5 milioni. Lo zucchero è tecnicamente più pericoloso dei missili. L’evidenza è che la tecnologia ci serve sempre di più per la pace e dovrebbe servirci sempre meno per condurre inutili conflitti.
CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!
[DISPLAY_ULTIMATE_SOCIAL_ICONS]
ELAD WALACH, AIDOC
Professione futuro è la rubrica di The Future Of dedicata ad imprenditori, visionari ed innovatori che con le loro startup, istituzioni o più raramente da soli stanno contribuendo a disegnare intriganti scenari futuri. Se avessi prodotto questa sezione del podcast guardando al passato, avrei parlato di Leonardo da Vinci, Nikola Tesla, Alan Turing, Steve Jobs ma ho deciso di fare una scommessa sul futuro e raccontarvi quello che verrà.
In nostro uomo oggi è Elad Walach, cofondatore di Aidoc, una startup israeliana entrata nella prestigiosa lista delle Genius Company del Time, che si prefigge di usare l’intelligenza artificiale per aiutare i radiologi ad eliminare i pericolosi colli di bottiglia nell’analisi dei dati. Quali colli di bottiglia? Il tempo e l’attenzione che un medico può dedicare all’analisi degli esami e la grandissima quantità di dati medici ai quali dobbiamo dare un senso compiuto, mentre, al contrario, ci stiamo letteralmente affogando dentro.
Walach, 30 anni, è il CEO di questa startup con sede a Tel Aviv, che ha poco più di due anni di vita e che vuole quindi salvare vite attraverso l’imaging medico. Aidoc applica l’intelligenza artificiale proprietaria ai milioni di immagini generate ogni anno dalle scansioni TC, al fine di rilevare problemi seri prima che un radiologo umano abbia la possibilità di rivedere i risultati.
La tomografia computerizzata, o appunto TC, è una tecnica di indagine con la quale è possibile riprodurre immagini in sezione e tridimensionali dell’anatomia. Il principio è che da proiezioni di un oggetto in molte direzioni, il computer è in grado di ricostruire l’immagine dell’oggetto.
E se la macchina può generare l’immagine abbastanza rapidamente, l’analisi e l’identificazione di problemi o della loro gravità dipende dal lavoro dell’uomo, dal tempo che ha a disposizione, dalla sua esperienza, dalla capacità di leggere le immagini nel modo corretto.
Il software AI di Aidoc esamina i risultati delle TC non appena escono dalla macchina. Se viene rilevata un’anomalia, un allarme appare immediatamente sullo schermo del radiologo.
Aidoc ha già ricevuto l’approvazione statunitense ed europea per valutare le scansioni di emorragie cerebrali e fratture spinali e la sua diffusione è in grande crescita. Del resto, credo che conforti chiunque sapere che in un certo momento in un qualsiasi ospedale, non ci sono pazienti per esempio con un’emorragia cerebrale in attesa che le loro analisi vengano lette.
Walach dice che i radiologi che utilizzano Aidoc possono ridurre i tempi di risposta fino al 60%. Il prodotto è ora utilizzato in 50 istituti medici, tra cui grandi ospedali universitari negli Stati Uniti e in Europa. Lo Sheba Medical Center in Israele è stato uno dei primi utilizzatori di Aidoc.
Walach comunica che sono state analizzate quasi 300.000 scansioni di pazienti, risparmiando circa 50.000 ore di lavoro umano. Il software Aidoc ha rilevato 140.000 anomalie e ha dato la priorità a 46.000 casi.
La necessità di una soluzione come Aidoc sta diventando sempre più necessaria a causa della enorme quantità di dati medici che l’umanità sta generando su base praticamente quotidiana. Il Time ha provato anche a dimensionare il fenomeno e prevede che i dati medici raggiungano un totale di 2,3 trilioni di gigabyte entro il 2020.
Aidoc ha analizzato 40 terabyte di dati al giorno solo negli ultimi sei mesi. Un volume decisamente impossibile per i radiologi umani, mentre è il pane quotidiano dei modelli di deep learning e delle analisi computerizzate.
E’ per questo che gli investitori hanno già dato fiducia ad Aidoc che ha raccolto rapidamente 13 milioni di dollari e sta crescendo a vista d’occhio. Tra l’altro espanderà anche il proprio raggio di azione. Anche se attualmente il software funziona solo con scansioni TC, nel 2019 verranno aggiunte anche le normali radiografie e le risonanze magnetiche, in attesa solo delle necessarie approvazioni normative.
Esistono problematiche legate alla privacy? E’ una domanda lecita, dal momento che i dati di ciascun paziente diventano il cibo preferito dell’intelligenza artificiale per imparare e per svolgere il suo compito che di fatto è una continua comparazione tra un nuovo caso e la libreria di episodi passati già analizzati. Ed il tutto avviene nel cloud tra l’altro, per scopi computazionali.
Probabilmente c’è un tema privacy non differente da qualsiasi altra soluzione tecnologica che utilizza approcci analoghi. Ma la privacy è un campo che subirà regolamentazioni sempre più stringenti ed al netto della possibilità di furto dei dati, sempre possibile nel modo digitale, come in quello fisico, direi che il valore di questo progresso medico è superiore al rischio di furto di dati. L’idea di una tele-radiologia dove un professionista nel mio ospedale o dall’altra parte del mondo se necessario, coadiuvato da un software, mi può salvare la vita o anche solo prioritizzare le cure in pochi minuti invece che in ore, non mi lascia indifferente. Ed i poveri radiologi scompariranno? Come sempre la risposta non è univoca, ma per ora hanno risparmiato 50.000 ore di lavoro per essere più efficienti in altre attività, il che da cittadino non mi dispiace per nulla.
CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!
[DISPLAY_ULTIMATE_SOCIAL_ICONS]
AMAZON E L’INTELLIGENZA ARTIFICIALE
Parlare di intelligenza artificiale per Amazon fa subito venire in mente Alexa e i servizi Amazon Web Services (AWS). Di Alexa ho già parlato diffusamente a The Future Of, mentre gli Amazon Web Services sono i “luoghi digitali” usati da Amazon per la sua massiccia attività di storage tramite server basati su cloud. AWS è diventato uno standard cloud per le aziende e gli sviluppatori che desiderano accedere all’intelligenza artificiale ed alla tecnologia di apprendimento automatico, ma se io dovessi dare un titolo a questo episodio lo chiamerei “la danza dei robot”: partendo dai centri di distribuzione del colosso dell’e-commerce. Perché è lì il cuore dell’uso dell’intelligenza artificiale di Amazon.
Nel profondo all’interno del centro di distribuzione di quasi 80.000 metri quadrati di Amazon, 18 miglia a sud di Seattle, un gruppo di robot arancioni sta facendo una danza. Sulla parte superiore di ciascuna delle macchine arancioni c’è una capsula gialla con nove file di scaffali predisposti su ciascuno dei quattro lati. Alimentato da intelligenza artificiale, ognuno dei robot entra automaticamente in azione quando qualcuno da qualche parte nel nord-ovest del Pacifico ha acquistato qualcosa su Amazon.com. Ciascuno di essi si muove autonomamente intorno agli altri nel tentativo di raggiungere una stazione ai margini del campo robotico recintato dove un operaio raccoglierà l’oggetto in questione e lo metterà su un nastro trasportatore verso un altro operaio che lo imballi. E lo stesso vale in giro per il mondo con livelli di automazione sempre crescenti che mettono l’intero processo sempre più nelle mani della macchina e meno in quello dell’uomo.
Alla scala cui lavora Amazon la massima efficienza è essenziale ed ha un impatto rilevante sui profitti della Società. Per un certo tempo, Amazon ha utilizzato l’apprendimento delle macchine nei suoi centri di smistamento per migliorare la capacità di prevedere quali clienti stanno ordinando cosa e collocare quel “cosa” nel posto giusto. I movimenti stessi degli operatori sono stati studiati ed ottimizzati e, grazie ad una combinazione di visione computerizzata avanzata e tecnologia di apprendimento automatico, dove sono le cose e come vengono fatte le operazioni di prelievo, ricerca, deposito, scansione etc… sono state rese superperformanti.
Ma sarebbe analogamente riduttivo pensare all’intelligenza artificiale in Amazon ai soli fini del business principale, l’e-commerce. Amazon definisce la sua strategia sull’AI “il volano”. Il “volano” implica un costante immagazzinamento della conoscenza e la sua distribuzione uniforme in tutta l’azienda. Così si può dire che Amazon è un’attività veramente orientata all’intelligenza artificiale e che trae il massimo da essa. In sostanza, ciò che viene creato in una parte dell’azienda funge da catalizzatore per la crescita dell’intelligenza artificiale e dell’apprendimento in altre aree.
E’ quasi buffo pensare che l’azienda ha iniziato ad usare l’intelligenza artificiale per guidare le raccomandazioni sui suoi prodotti ed ora l’ha estesa a tutti i gangli vitali della strategia. L’intelligenza artificiale ancora oggi svolge un ruolo importante nel motore di raccomandazione di Amazon, che genera ben il 35% del fatturato dell’azienda. Utilizzando i dati delle preferenze e degli acquisti dei singoli clienti, la cronologia di navigazione e gli articoli correlati e regolarmente acquistati insieme, Amazon può creare una lista personalizzata di prodotti che i clienti vogliono effettivamente acquistare.
Il volano in realtà in questa fase sta ancora immagazzinando energia che rilascerà nel tempo. Per certi versi è ancora all’inizio. Facciamo un esempio. Dato che il cuore del nuovo sistema del centro di distribuzione prevede l’utilizzo di telecamere e software AI per rilevare l’operatore che tiene in mano un articolo e lo mette su uno scaffale, si potrebbe pensare che la stessa tecnologia sia in uso presso Amazon Go, il negozio automatico di Amazon che permette ai clienti di entrare, afferrare ciò che vogliono e semplicemente uscire dalla porta, con l’addebito automatico di tutto sul proprio conto.
Non è così. Anche se gli scienziati dell’intelligenza artificiale di tutta l’azienda dialogano tra loro, l’hardware di Go, che include telecamere a colori e di profondità, così come sensori di peso e algoritmi, è stato sviluppato in modo indipendente. Riflette cinque anni di lavoro nello sviluppo di sistemi in grado di tracciare gli oggetti di movimentazione delle persone in un’ampia varietà di dimensioni, forme e colori in ambienti complessi come gli affollati negozi di alimentari.
Il che significa che c’è un enorme spazio di cooperazione e di condivisione di competenze che oggi sono diffuse per progetto, ma non a livello centrale. L’IA non si trova in un unico ufficio in Amazon e le informazioni sono diffuse in tutti i reparti. E’ ora di metterle insieme.
Il nuovo obiettivo è creare una strategia coesa attorno alla customer experience, guidata dall’intelligenza artificiale. I dati dei pilastri principali dell’azienda (piattaforma di e-commerce, Alexa ed algoritmi di ottimizzazione della logistica) lavorano insieme per creare una migliore esperienza per il cliente. Un cliente può visitare il negozio Amazon Go alla ricerca di alcuni articoli per la cena, chiedere ad Alexa di cercare una ricetta e il motore di raccomandazione del prodotto può determinare che il cliente ha probabilmente bisogno di acquistare un certo tipo di padella per la salsa. Invece di combattere le une contro le altre, le diverse divisioni condividono le loro conoscenze innovative per fornire al cliente un’esperienza personalizzata e coesa. Che poi questo ad alcuni sembri più un accerchiamento che un miglioramento dell’esperienza di acquisto può essere vero, ma per ora la crescita continua di Amazon sembra confermare la bontà dell’approccio.
CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!
[DISPLAY_ULTIMATE_SOCIAL_ICONS]