News dal futuro #105

Il futuro è già qui

News dal futuro - software fallace stupidità artificiale la sindrome dell'Havana robot agricoli mercato nero del delivery

News dal futuro – software fallace, stupidità artificiale, la sindrome dell’Havana, robot agricoli, mercato nero del delivery

software fallace stupidità artificiale la sindrome dell’Havana robot agricoli mercato nero del delivery

In questa puntata, cinque segnali di futuro che vi faranno riflettere:

  • Uno. Software fallace. L’ostinazione del Post Office inglese nel difendere un software che aveva gravi difetti e si perdeva i soldi sui conti, ha portato in galera ingiustamente molti lavoratori. E’ giunta l’ora di fare ammenda. 
  • Due. Stupidità artificiale. Se pensate che questo termine si riferisca in maniera un po ironica, agli errori grossolani delle intelligenze artificiali, vi racconterò come, al contrario, sia una disciplina serissima, ed a cosa serve. 
  • Tre. La sindrome dell’Havana. Il mistero dei malesseri fisici del personale americano impiegato all’estero, tra possibili attacchi con energia sonora a microonde ed ipocondria da precedente Amministrazione.
  • Quattro. Robot agricoli. I campi agricoli sono luoghi frequentati da robot killer che, dotati di laser o potentissime scariche elettriche, fanno fuori le erbacce a colpi di algoritmi sofisticati.
  • Cinque. Mercato nero del delivery. Il mondo del delivery gestisce gli autisti con algoritmi e piattaforme sempre più opache? Ecco l’esempio di Jakarta, dove i driver si coalizzano per realizzare app con algoritmi altrettanto sofisticati per organizzare al meglio il proprio lavoro. A volte andando anche oltre il limite del lecito.

La community di The Future Of



SOFTWARE FALLACE

Il famoso investitore Horowitz ha sempre detto “software is eating the world” e non c’è dubbio che nel mondo degli investimenti, il software che può fare cose mirabolanti, sia sempre al centro dell’attenzione.

Ma qualche scricchiolio ci deve far riflettere. Qualche puntata fa, vi ho raccontato la storia di un presunto assassino che ha ottenuto di far analizzare il software della macchina del test del DNA che lo incastrava. Scoprendo bug e difetti nella scrittura del codice, che avevano portato ad identificare una dozzina di falsi positivi. Un fatto grave, il numero è piccolo, ma sono sicuro che se foste voi a rischiare di andare in galera per un errore di codice, non sareste molto felici. O sbaglio?

E questa settimana ci risiamo. Con un caso di ingiustizia alquanto singolare che arriva dalla Gran Bretagna. Negli ultimi 20 anni i dipendenti delle poste britanniche hanno avuto a che fare con un software chiamato Horizon, che aveva un difetto fatale: bug che facevano sembrare che i dipendenti rubassero decine di migliaia di sterline.

Questo ha portato alcuni postini locali ad essere condannati per furto oltre che, in alcuni casi, ad andare in prigione, perché il Post Office insisteva ostinatamente che il software era affidabile. Dopo aver lottato per decenni, 39 persone stanno finalmente vedendosi annullare le condanne, dopo quello che è considerato ormai il più grande errore giudiziario che il Regno Unito abbia mai visto.

Horizon è stato realizzato dalla società giapponese Fujitsu, e le disfunzioni del programma hanno portato a perseguire 736 dipendenti del Post Office tra il 2000 e il 2014. I bug nel sistema facevano scattare la segnalazione che i conti che erano sotto il controllo dei dipendenti erano “corti”, cioè in buona sostanza vi erano degli ammanchi non giustificati.

In molti si sono semplicemente difesi, altri hanno perso sia il lavoro alle poste che altre opportunità, alcuni sono andati in prigione, molti hanno visto deteriorarsi le loro condizioni familiari. La BBC ha riferito che alcuni dipendenti hanno anche cercato di ripristinare le cifre mancanti vendendo le loro case, o utilizzando il proprio denaro.

Persino il Premier inglese Boris Johnson, qualche giorno fa, ha plaudito alla soluzione di questa terribile controversia, oltre che ovviamente alla sostituzione del software in questione con nuovi tool più moderni.

Questa storia avrebbe potuto in realtà avere un epilogo positivo sin da prima, se agli errori del software non si fosse aggiunta anche la stupidità umana.

Agli alti dirigenti del Post Office era stato detto già nel 2011 che anche i tecnici del computer avevano accesso al sistema e potevano cambiare i dati dei postini. Un rapporto della Società di revisione Ernst and Young, era chiaro nel sostenere di aver identificato delle debolezze nel sistema Horizon: metteva in guardia sul fatto che alcuni operatori informatici avevano accesso illimitato ai conti e che quindi vi era un rischio di elaborare transazioni non autorizzate o errate. Un’inchiesta della BBC scoprì e riportò sin dal 2015, che gli account potevano essere accessibili ad insaputa dei gestori da remoto.

Ma il Post Office negò tutto, anche l’evidenza, per mantenere alta la reputazione e probabilmente anche i profitti. Secondo la BBC, un’email del Post Office Security Team ai loro colleghi del Legale, parlava di un bug nel sistema informatico Horizon che faceva semplicemente sparire il denaro. In un caso, 30.611 sterline scomparvero sotto gli occhi dei tecnici. Il team di sicurezza disse al team legale che erano preoccupati che il bug potesse avere ripercussioni in qualsiasi futuro caso di accusa.

Questa scoperta avvenne tre giorni prima che una ex-collega incinta fosse incriminata in tribunale, ricevendo una pena di 15 mesi di reclusione. Sarebbe bastato far emergere questa comunicazione e si sarebbero potuti evitare guai più seri.

Perché un software scritto male passa, perché un’architettura poco sicura e robusta passa, ma queste cose unite alla scorrettezza umana non devono passare.

STUPIDITA’ ARTIFICIALE

Se pensate che il termine “stupidità artificiale” si riferisca semplicemente ai casi nei quali un’intelligenza artificiale compie degli atti apparentemente insensati e fallisce, fra poco vi racconterò che il tema è invece più serio di quello che appare.

Non c’è dubbio che in tempi recenti, alcune intelligenze artificiali abbiano commesso errori davvero significativi. Automatizzare alcuni lavori del resto, può essere rischioso, specialmente nei ruoli di fronte al pubblico. Lo ha imparato a sue spese Microsoft, che l’anno scorso ha licenziato un team di giornalisti per sostituirli con un’AI, che si sarebbe dovuta occupare di pubbliche relazioni; ha dovuto quasi immediatamente affrontare il fallimento del software nel distinguere le donne di colore. 

Non è andata meglio ad Amazon, che ha dovuto abbandonare il suo strumento di selezione del personale basato sull’intelligenza artificiale, dopo aver scoperto che discriminava le donne. 

E quando GPT3, uno dei modelli di linguaggio AI più avanzati, è stato usato come chatbot medico l’anno scorso, ha risposto a un finto paziente che presentava istinti suicidi, suggerendogli di uccidersi.

Tutto logico no? Per nulla. Il tema della stupidità artificiale non riguarda gli errori, ma un uso deliberato dell’irrazionalità negli algoritmi. 

Tutto risale al famoso test di Turing ed al suo proposito di intervistare una macchina, che avrebbe dovuto rispondere in modo talmente umano da ingannare il suo interlocutore.

In particolare, il famoso scienziato spiegò perché la convinzione che “l’interrogatore potrebbe distinguere la macchina dall’uomo semplicemente ponendole una serie di problemi di aritmetica” perché “la macchina verrebbe smascherata a causa della sua micidiale precisione“, è falsa. Infatti, la macchina “non tenterebbe di dare le risposte giuste ai problemi aritmetici. Introdurrebbe deliberatamente degli errori in un modo calcolato per confondere l’interrogante“. Quindi, l’aspettativa era che una macchina veramente evoluta avrebbe nascosto le sue capacità sovrumane dando una risposta sbagliata, o semplicemente dicendo che non poteva calcolare il risultato dell’operazione.

Limitando la capacità di un’AI di eseguire un compito, per eguagliare meglio la capacità degli umani, un’intelligenza artificiale può essere resa più sicura, nel senso che le sue capacità non supereranno di diversi ordini di grandezza quelle degli umani.

Ecco allora che ad Aprile, Novidia, uno sviluppatore leader nella produzione di hardware e software utilizzati nello sviluppo dell’intelligenza artificiale, ha annunciato che sta introducendo una nuova serie di prodotti e strumenti, basati sulla scienza emergente della “Stupidità Artificiale”. La stupidità artificiale non è destinata a sostituire l’AI, né a restare circoscritta al difficile campo degli algoritmi dotati di humor, bensì ad aumentarla.

La tecnologia di stupidità artificiale, che utilizza algoritmi di biomimetica per modellare il comportamento illogico e talvolta controproducente degli esseri umani e di alcuni primati superiori, viene utilizzata dai ricercatori di Novidia per ammorbidire la logica troppo perfetta dei sistemi tradizionali di intelligenza artificiale.

Ma il tema è ancora più ampio, di quello di rendere un AI indistinguibile da un essere umano. C’è anche la paura esistenziale, che se gli umani non limitano deliberatamente un’intelligenza artificiale, essa potrebbe diventare una super intelligenza, cioè un intelletto che supera di gran lunga le prestazioni cognitive degli umani in quasi tutti i domini di interesse, e gli umani potrebbero alla fine perdere il controllo sull’AI.

Per capire questo tema dobbiamo provare a fare un elenco del tipo di capacità che può mettere in campo un’intelligenza artificiale, cioè classificare in che modo può essere intelligente.

Bostrom distingue tre forme di superintelligenza: 

  • quella basata sulla velocità, può fare tutto ciò che può fare un intelletto umano, ma molto più velocemente
  • quella collettiva, un sistema composto da un gran numero di intelletti più piccoli in modo tale che le prestazioni complessive del sistema in molti domini generali superino di gran lunga quelle di qualsiasi sistema cognitivo attuale
  • quella qualitativa, un sistema che è almeno veloce come una mente umana e molto più intelligente qualitativamente. 

Esistono quindi tanti modi di rendere meno intelligente una macchina. Per esempio, il suo numero massimo di operazioni al secondo può essere portato ad essere pari, ma non superiore a quelle che può fare un essere umano. Allo stesso modo, limitando la sua RAM, o tutto ciò che può essere usato come memoria di lavoro, possiamo limitare la sua potenza di elaborazione, per far sì che processi le informazioni a una velocità simile a quella degli umani.

Ma si può lavorare anche sulla capacità di immagazzinare le informazioni. Si stima che l’intera Wikipedia, in inglese, occupi circa 12 Gigabyte e cresca al ritmo di 1 Gigabyte all’anno: limitando lo storage della macchina a questi valori, si potrebbe evitare che diventi molto più intelligente di una persona, pur restando comunque più veloce.

Risultati analoghi potrebbero essere garantiti anche regolando la velocità di accesso alla memoria, riducendo il numero di operazioni che la macchina può fare nell’unità di tempo e così via.

In questo modo la si renderebbe sufficientemente stupida da non prendere il controllo sull’umanità, ma abbastanza intelligente da prendere la decisione giusta in condizioni difficili. 

LA SINDROME DELL’HAVANA

Questo è il nome dato dagli americani ad un fenomeno che, negli USA, sta acquisendo i  contorni di un romanzo di spionaggio. Si riferisce a sintomi inspiegabili che il personale statunitense a Cuba ha iniziato a sperimentare alla fine del 2016: dolori alle orecchie, vertigini, martellante mal di testa e nausea, a volte accompagnato da un non identificato “rumore direzionale penetrante”.

E se fosse rimasto confinato nella bella isola caraibica, forse l’argomento non sarebbe stato un problema. Peccato che potrebbe aver riguardato, il condizionale è d’obbligo, anche personale in Cina, in Russia ed in altri luoghi del pianeta. E dal mese scorso, sembra aver colpito anche sul suolo americano e per di più in prossimità della Casa Bianca.

Il solo fatto che personale governativo e militare abbia sofferto di tali disagi non sarebbe una notizia in sé. Del resto, migliaia di americani servono in giro per il mondo e, se prendiamo un periodo di 5 anni, è normale immaginare che molti di loro abbiano sofferto di sintomi che sono analoghi a quelli causati dall’abuso di alcol, droghe, problemi intestinali, ma anche da stress, jet-lag e varie altre malattie molto tradizionali.

Se non fosse che, nonostante non vi sia ancora consenso su ciò che ha causato i sintomi, uno studio sponsorizzato dal Dipartimento di Stato ha scoperto che potrebbero essere il risultato di attacchi di energia a microonde. 

Apriti cielo. Saranno i russi? Ci sarà dietro la Cina? E quando si comincia così, il rischio è anche di cadere nel ridicolo. In un incidente che è stato indagato seriamente, i marines in una base in Siria avevano sviluppato sintomi simili all’influenza, poco dopo che un elicottero russo aveva sorvolato la base, sollevando preoccupazioni immediate che potesse trattarsi di uno di quegli strani attacchi. Peccato che, alla fine, l’attacco influenzale era cominciato prima del sorvolo nemico e si trattava solamente di malesseri causati da cibo avariato.

Ma recentemente c’è stata un escalation. A Marzo un rapporto dell’Accademia Nazionale delle Scienze, mica pizza e fichi, ha identificato che “l’energia a radiofrequenza pulsata e diretta” era la causa più probabile della strana serie di sintomi. Mentre il rapporto è stato accuratamente scritto per non esagerare le sue scoperte, ha offerto alcune delle prove pubbliche più chiare fino ad oggi che gli incidenti potrebbero essere attacchi, attribuendo le afflizioni all’energia “pulsata” o “diretta”.

Ad Aprile si è verificato un incidente vicino all’Ellisse, il grande prato ovale sul lato sud della Casa Bianca, che ha fatto ammalare un funzionario del Consiglio di Sicurezza Nazionale. E gli americani, quando li tocchi in casa loro, storicamente si innervosiscono parecchio.

Il Pentagono ha istituito una task force per monitorare i rapporti di tali sintomi che colpiscono il personale del Dipartimento della Difesa all’estero, uno sforzo che se non risolverà il problema, si ritiene possa almeno forzare la CIA e lo Stato a prendere il problema più seriamente.

Ma veniamo al famoso report sugli attacchi di energia a microonde. Il rapporto ha detto che, i 19 esperti della Commissione, hanno considerato le esposizioni chimiche, le malattie infettive e i problemi psicologici come cause potenziali o fattori aggravanti delle lesioni. Ma l’analisi complessiva, sembrava mostrare che queste cose non avessero alcun ruolo.

Il rapporto non conclude che l’uso di energia a microonde diretta, nei casi analizzati, sia stato fatto deliberatamente, ma dice che tale azione potrebbe essere utilizzata per scopi nefasti. 

Ma cos’è un’arma a microonde? È un tipo di arma a energia diretta, che mira a un bersaglio con energia altamente focalizzata sotto forma di suono, laser o microonde. Quella potenzialmente usata nei presunti attacchi al personale americano, sarebbe un’arma sonica, o un dispositivo acustico a lungo raggio. E questo spiegherebbe il fatto che le persone colpite riferivano di aver sentito della musica o dei suoni strani, qualcosa che sarebbe utilizzato ad arte proprio per coprire le onde sonore utilizzate. Ma non pensate a quelle scene dove i cattivi si portano le mani alle orecchie e cadono a terra stordite da suoni violenti, qui il problema è che le armi soniche sono in grado di causare qualche forma di danno ai polmoni ed al fegato, ad un certo livello di decibel.

E, secondo quanto ritengono gli americani, forse anche al cervello. I ricercatori hanno rivelato i risultati di un’analisi indipendente del cervello di Mark Lenzi, un diplomatico statunitense che era di stanza a Guangzhou, in Cina, nel 2017 quando ha iniziato a sperimentare sintomi inspiegabili, tra cui mal di testa, difficoltà di lettura, irritabilità, così come perdita di memoria e problemi di sonno.

Tra i risultati della risonanza magnetica: 20 regioni del cervello con volumi “bassi ad un livello anomalo”, comprese le regioni coinvolte nella memoria, regolazione emotiva e abilità motorie.

Colpa delle onde sonore? Sono loro a rimpicciolire il cervello? Ovviamente nessuna prova, ma solo labili collegamenti. Mi chiedo se avremmo preso tutti più seriamente questa storia, se il tutto non fosse nato nel periodo in cui un ipocondriaco Presidente Trump, vedeva nemici da tutte le parti.

software fallace stupidità artificiale la sindrome dell’Havana robot agricoli mercato nero del delivery

ROBOT AGRICOLI

Le erbacce competono con le piante per lo spazio, la luce del sole e le sostanze nutritive del suolo. Possono anche rendere più facile per i parassiti danneggiare le colture, quindi il controllo delle erbacce è una delle principali preoccupazioni per gli agricoltori.

Che tu sia un agricoltore che si occupa di colture estensive da cui dipende il tuo sostentamento o un giardiniere hobbista che cerca di tenere sotto controllo i pomodori, le erbacce possono essere un problema che richiede tempo e attenzione.

Ovviamente gli erbicidi chimici possono uccidere le piante fastidiose, ma possono anche contaminare l’acqua e compromettere la salute del suolo. E’ altrettanto vero che le erbacce possono essere estirpate a mano, ma è un lavoro sgradevole, e la carenza di manodopera è un problema enorme nell’industria agricola.

Equipaggiando le macchine automatizzate con l’attrezzatura necessaria e il know-how per cercare le piante invasive e indesiderate, la speranza è che gran parte di questo processo possa essere automatizzato, lasciando i raccolti sani e gli agricoltori con più soldi e tempo a disposizione.

Seguendo questo filone e cercando di risolvere questi problemi, la startup Carbon Robotics ha lanciato una macchina autonoma che ha proprio le erbacce nel mirino: utilizza una combinazione di computer vision e laser ad alta potenza per scansionare i campi ed eliminare migliaia di erbacce all’ora.

Quante? Il robot autonomo può eliminare più di 100.000 erbacce all’ora e diserbare circa 80.000 metri quadri di colture in un giorno: a confronto, un operaio agricolo, anche se veloce, riesce a diserbare circa un decimo di tale spazio nello stesso tempo.

Come funziona? Il robot agricolo si presenta come un grande cubo su ruote, ovviamente niente forme antropomorfe che sarebbero inutili in questo contesto.

Mentre si muove lungo le file di colture, 12 telecamere scansionano il terreno. Un computer di bordo, alimentato dall’intelligenza artificiale, identifica le erbacce, e i laser al diossido di carbonio del robot poi, colpiscono e uccidono le piante. Semplice e lineare, un vero e proprio killer dei campi. Il sistema robotico può usare diverse lunghezze d’onda della luce come un’impronta digitale spettrale per individuare il tipo di erbaccia ed agire di conseguenza, eliminando anche quelle più difficili da individuare per un occhio umano.

Ed a quanto pare è in buona compagnia, visto che il trend della robotica agricola è in grande espansione. Un altro robot, di nome Dick, è stato testato pochi giorni fa, in un campo soleggiato nell’Hampshire. Una volta che il suo motore di intelligenza artificiale ha agganciato l’obiettivo, un elettrodo nero scende ed eroga una scarica da 8.000 volt. Un crepitio, uno sbuffo di fumo, e il bersaglio è morto, l’erbaccia è stata bollita viva dall’interno.

Qui l’operatività è un po’ più complicata, visto che un robot scout, chiamato Tom, ha già scansionato il campo in dettaglio e passato i dati a un motore di intelligenza artificiale chiamato Wilma, per tracciare i bersagli. Dick, in buona sostanza è un mero esecutore, ma il risultato è eccellente. E’ alimentato dalle batterie di una Tesla e inizierà le prove sul campo in ottobre. Ed è anche particolarmente sicuro, ha sensori laser per rilevare le ostruzioni e si spegne in una modalità di ibernazione se incontra qualcosa di inaspettato.

Questi che vi ho raccontato sono solo esempi, ed è ancora tutto da dimostrare che gli agricoltori faranno investimenti di centinaia di migliaia di Euro per dotarsi di questi robot, anche se i produttori sostengono che si ripagheranno in appena 2 o 3 anni. Per il momento, una buona parte degli agricoltori preferisce ancora acquistare macchine che lavorino con loro e non al posto loro, ma anche questo tabù sembra destinato a cadere.

Se poi volete un robottino anti-erbacce, solare e per l’orto casalingo, vi assicuro che in rete ho trovato un favoloso Tertill ad appena 349 dollari, ma questa è un’altra storia.

MERCATO NERO DEL DELIVERY

E’ da tempo che, in Italia, assistiamo ad una battaglia che sta progressivamente portando i drivers a diventare una categoria di lavoratori riconosciuta e protetta. E del resto non poteva essere altrimenti: un modello di business basato sullo sfruttamento sottopagato del lavoro, prima poi avrebbe dovuto finire.

Eppure se da noi, che siamo un welfare state, le cose stanno prendendo questa piega, negli stessi USA, di fronte alla richiesta di aumento delle tutele, i colossi del delivery hanno risposto mettendo il meccanismo sempre più nelle mani di algoritmi.

E visto che nessuna persona da sola è in grado di fronteggiare un algoritmo e batterlo, qualcuno ha pensato che la battaglia si dovesse combattere a colpi di algoritmo, anche dal lato dei driver. 

Questa storia arriva da Jakarta. Dal momento che i sistemi assegnano l’ordine al driver più vicino, sono fiorite una serie di app, che con meccanismi di GPS-spoofing, cioè che ti fanno sembrare esattamente nel punto che desideri, ingannano i sistemi dei delivery. Usando queste app non ufficiali, conosciute come tuyul, gli autisti possono impostare i loro pin GPS nella posizione ottimale dalla quale vorrebbero ritirare l’ordine, senza dover essere davvero in prossimità del ristorante.

E da un semplice pin geolocalizzato, le funzionalità di queste app si sono progressivamente estese. Nel bene e nel male. Per esempio, quando gli autisti più anziani si lamentavano di non poter leggere i dettagli importanti di un ordine, perché il testo era troppo piccolo, è arrivata sul mercato un’applicazione fatta in casa che ingrandiva la destinazione, la tariffa e la distanza di ogni ordine offerto. Questa caratteristica alla fine si trasformò in applicazioni che permettevano “offerte automatiche”: ogni ordine sarebbe stato accettato come veniva offerto, eliminando il fastidio di guardare il telefono. Per dare agli autisti un maggiore controllo sugli ordini offerti e per evitare le penali associate al rifiuto, alcune app permettevano agli autisti di impostare dei filtri per le caratteristiche dell’ordine, impostando la distanza massima e la paga minima, per esempio.

Insomma, tu mi gestisci con un algoritmo ed io uso, a mia volta, un algoritmo per ottimizzare le mie attività. Peccato che ovviamente, per le compagnie di delivery, queste app sono completamente illegali e chi è pescato ad usarle è fuori. 

La cosa sembra non aver preoccupato più di tanto gli autisti, visto che i download a Jackarta si contano nell’ordine di alcune centinaia di migliaia, senza contare tutto quanto sfugge ai canali ufficiali. Addirittura, sono nati veri e propri servizi di assistenza: oltre all’app, per pochi spiccioli, ti assistono anche lato IT, così da rendere non rintracciabile l’app, ottimizzarne il funzionamento e fare customer service in caso di problemi. Del resto con migliaia di persone sulle strade a fare gli autisti, colleghi intraprendenti e più tecnici non mancano di sicuro.

Qualcuno si è anche fatto prendere la mano, passando dal lato oscuro. Gli autisti hanno anche usato app dotate di GPS-spoofing per creare ordini fraudolenti, chiamati “opik” (un gioco di parole con “ordine fittizio”). Creando una falsa traccia GPS digitale, possono indicare alla piattaforma che hanno completato un ordine senza mai muoversi. Gruppi di autisti che hanno fatto milioni di rupie truffando il sistema di Gojek (la Deliveroo o Just Eat locale) sono stati scoperti e arrestati a Jakarta.   

Lungi da me apprezzare o incoraggiare chi viola la legge, ma il messaggio di questa storia è che chi di algoritmo ferisce, di algoritmo perisce. E se pensate che la cosa sia un fenomeno tutto Indonesiano, roba che viene dall’altra parte del mondo, beh, non è esattamente così.

Usando un bug in una vecchia versione Android di DoorDash, più di 26.000 autisti della società americana, hanno collettivamente rifiutato gli ordini più economici, a favore di quelli più ricchi per fare più soldi sulla piattaforma.

E’ nato un vero e proprio movimento noto con l’hashtag “decline now”, cioè rifiuta adesso. Ognuno ha i suoi criteri, qualcuno calcola il ricavo al km contro il costo al km, qualcuno evita gli ordini senza mancia, qualcuno preferisce rifiutare di trasportare ordini che rendono meno di un certo valore assoluto. E, francamente, non capisco perché questo debba essere un problema o addirittura vietato. Questi colossi, che fino a qualche anno fa erano startup, ora vengono fronteggiati dai loro stessi lavoratori sottopagati, che si organizzano e digitalizzano per ottimizzare la loro attività.

Ma questa cosa di selezionare gli ordini migliori funziona? Ci ha provato un famoso blog americano che ha condiviso i risultati di un esperimento condotto da una pagina Facebook di autisti dove un gruppo ha rifiutato selettivamente gli ordini mentre un altro ha accettato ogni ordine offerto da DoorDash. 

I risultati sono stati netti: gli autisti che hanno accettato tutto in media hanno guadagnato 68 centesimi per miglio e un salario orario lordo di 12,41 dollari per poco più di 9 ore; gli autisti che hanno rifiutato selettivamente gli ordini hanno guadagnato 1,26 dollari per miglio, guadagnando un salario orario lordo di 21,15 dollari per poco più di 9 ore di lavoro.

Fate voi. Chi di algoritmo ferisce, di algoritmo perisce.

software fallace stupidità artificiale la sindrome dell’Havana robot agricoli mercato nero del delivery

SALUTI

Grazie per aver ascoltato The Future Of, davvero! Avresti potuto ascoltare la radio, avresti potuto far girare un vinile, avresti potuto mettere su una cassetta, avresti potuto usare uno stereotto, ehm, a sapere cosa fosse, e invece hai preferito The Future Of. E’ per questo che ti ringrazio, ed hai ancora centinaia di puntate da scoprire.
La frase della settimana. Albert Einstein ha scritto “Imparare da ieri, vivere per oggi, sperare per domani. L’importante è non smettere di interrogarsi.”.

software fallace stupidità artificiale la sindrome dell’Havana robot agricoli mercato nero del delivery

software fallace stupidità artificiale la sindrome dell’Havana robot agricoli mercato nero del delivery

 

× Whatsapp