News dal futuro #96

Il podcast ed il blog che parlano del nostro futuro

Affaticamento da videocall ologrammi touchscreen dialoghi nei sogni satelliti pesca ed AI cavi sottomarini e terremoti

Affaticamento da videocall, ologrammi touchscreen, dialoghi nei sogni, satelliti pesca ed AI, cavi sottomarini e terremoti

Affaticamento da videocall ologrammi touchscreen dialoghi nei sogni satelliti pesca ed AI cavi sottomarini e terremoti

In questa puntata:

(1) Il direttore del Virtual Human Interaction Lab di Stanford ci spiega perché la vita in videocall è più stancante di quella degli incontri vis-a-vis.
(2) Un’azienda giapponese lancia ologrammi touchless con i quali si può interagire realmente. La pandemia da contatto aguzza l’ingegno.
(3) Un gruppo di scienziati riesce a dialogare con persone che stanno vivendo dei lucid dreams. A che pro? Arrivano i sogni interattivi?
(4) Satelliti ed intelligenza artificiale scendono in campo per combattere la piaga della pesca illegale.
(5) Il CalTech suggerisce di usare i cavi sottomarini di Google per rilevare terremoti sul fondo degli oceani e potenziali tsunami… e scopre che funziona.

……………………………………………………………………………………………

Se avete 1 minuto vi invito a compilare il questionario di The Future Of sul comportamento d’ascolto dei podcast
https://intoway.net/w/?bi=705#p/1039

La community di The Future Of

Affaticamento da videocall ologrammi touchscreen dialoghi nei sogni satelliti pesca ed AI cavi sottomarini e terremoti


AFFATICAMENTO DA VIDEOCALL

In principio fu Skype. Il desiderio di poter dialogare a distanza vedendosi e parlandosi in real time è stato sempre presente da quando ci siamo seduti davanti ad un monitor. Poi è arrivata FaceTime che ha portato la tecnologia sugli smartphone della mela. E da lì in poi i numeri sono sempre cresciuti. 

Sappiamo tutti che l’attuale pandemia ha accelerato il fenomeno in maniera esponenziale e le piattaforme che ci consentono di fare questa attività sono proliferate. Il paradigma di tutto questo ce lo raccontano i numeri di Zoom che è passato da 10 milioni di utenti nel Dicembre 2019 ad oltre 300 appena 5 mesi dopo.

Ed è proprio per questo che l’affaticamento che proviamo dopo un’intensa giornata di videocall è stato chiamato “Zoom fatigue”. Non farà piacere all’azienda americana essere associata a questo concetto, ma è chiaro che il tema riguarda le videochat in sé, che vengano condotte su Zoom, Team, Meet e chi più ne ha più ne metta.

Jeremy Bailenson, direttore fondatore del Virtual Human Interaction Lab alla Stanford University, ha trascorso più di due decenni a studiare i modi in cui la comunicazione virtuale influisce sugli individui, e quindi ha scritto un esaustivo editoriale che ci spiega perché ci stanchiamo. Tutto gira attorno ad una sorta di sovraccarico di segnali non verbali che si verifica quando si usano le piattaforme virtuali, rispetto alle classiche interazioni di persona.

Per certi aspetti il concetto è contro-intuitivo: siamo nelle nostre case comode o comunque in ufficio, non dobbiamo andare in giro o viaggiare per fare una riunione, possiamo persino essere in ciabatte e tenere una bella tazza di tè vicino a noi, ormai è accettato di buon grado non vestire più una camicia e nemmeno una cravatta e siamo più stanchi?

La prima causa di Zoom Fatigue suggerita da Bailenson è lo stato di stress causato dal prolungato contatto visivo ravvicinato. A differenza di una riunione di persona, dove i partecipanti passano dal guardare un oratore ad altre attività, come prendere appunti, su Zoom tutti fissano sempre tutti. A noi può sembrare poca cosa, ma per il nostro cervello è un impegno, visto che a meno di togliere la telecamera, siamo potenzialmente sempre al centro degli sguardi di qualcuno, anche se non siamo lo speaker.

Il secondo tema riguarda proprio la presenza del fattore video. Le risorse mentali aggiuntive necessarie per interpretare i segnali video, richiedono più lavoro cognitivo per comunicare. Problema che non si risolve spegnendo il video di tanto in tanto, bensì inserendo delle vere e proprie pause nella call e imponendosi di alzarsi ed allontanarsi dallo schermo.

Il terzo spunto deriva dal fatto che durante una call, solitamente noi vediamo anche noi stessi. In qualche punto dello schermo, grande o piccolo che sia, la nostra immagine ci viene sempre sbattuta in faccia. E questo self-mirroring fa si che ci auto valutiamo costantemente, ogni istante, pensando a come appariamo, alla postura che teniamo, alle espressioni del volto e così via. Anche questo, anche se non ce ne accorgiamo, comporta un impegno di risorse cerebrali notevole. E quindi? Ove possibile, usiamo l’opzione di non mostrare la nostra immagine a noi stessi. Agli altri si, a noi è meglio di no.

Il quarto elemento deriva dalla staticità che la videocall ci impone. Io ero abituato ad alzarmi e sgranchirmi le gambe durante le riunioni fisiche, almeno quando il contesto me lo consentiva, ora sono di fatto costretto davanti al monitor. Infatti quando parlo solo al telefono per esempio, grazie agli auricolari bluetooth, posso camminare e svolgere altri piccoli compiti. Qui ci sono meno soluzioni, ma Bailenson suggerisce, intelligentemente, di allontanare la cam dal nostro viso. Se abbiamo più spazio vitale o addirittura questa riprendesse il tavolo o la stanza, potremmo muoverci in maggiore autonomia.

In conclusione, il fenomeno ha delle chiare spiegazioni, ma abbiamo anche qualche idea e qualche spunto per mitigare il rischio di affaticamente. E quindi, buona call a tutti!  

OLOGRAMMI TOUCHSCREEN

La pandemia di covid-19 ha spinto la nostra vita quotidiana verso comportamenti sempre più touch-less, cioè senza contatto. Lo abbiamo visto accadere attraverso il distanziamento sociale, le vendite online, il proliferare delle videocall, l’aumento dell’automazione ed in tanti altri aspetti della nostra vita pubblica e privata.

Nell’ottobre del 2020, alcuni ricercatori australiani hanno confermato che il virus responsabile del COVID-19, può rimanere infettivo su superfici comuni come il vetro, l’acciaio inossidabile e le banconote per ben 28 giorni.

Per affrontare queste preoccupazioni, i ricercatori giapponesi hanno presentato una applicazione che chiamano Floating Pictogram Technology. Questo sistema di interfaccia senza contatto è basato su una tecnologia ottica all’avanguardia di “immagine fluttuante nell’aria”. In sostanza, questa tecnologia proietta una fonte di luce combinata con uno specchio specializzato per visualizzare pulsanti galleggianti a mezz’aria, che sono luminosi e altamente visibili. Una tecnologia di rilevamento spaziale individua poi la posizione in 3D di un dito nell’aria utilizzando un algoritmo e genera una risposta ad alta velocità quando l’utente simula la pressione di un tasto. Questo permette il funzionamento dell’interfaccia senza toccare fisicamente alcun tasto o pannello.

Anche prima della pandemia, i touchscreen dei self-checkout e dei bancomat ponevano un problema serio: uno studio del 2018 della London Metropolitan University aveva già dimostrato che i touchscreen dei fast food, per esempio, ospitano ogni sorta di batteri indesiderati e potenzialmente dannosi.

Se estendiamo il concetto ai pulsanti degli ascensori, le vending machine, i tasti sui semafori e tutte quelle superfici che tocchiamo senza neanche pensarci ogni giorno durante le nostre attività più comuni, è evidente che il problema esiste e non è trascurabile.

Ecco allora, la tecnologia sviluppata dalla Murakami Corporation, in collaborazione con Parity Innovations, che hanno lanciato un sistema di controllo degli ologrammi senza contatto, pensato inizialmente per le toilette giapponesi ad alta tecnologia e che ha il potenziale di scalare per l’uso in un’ampia varietà di interfacce pubbliche.

La Floating Pictogram Technology permette agli utenti di “premere” pulsanti simili a ologrammi senza toccare fisicamente alcun pannello, eliminando la necessità di entrare in contatto con una superficie che potrebbe essere piena di batteri. Un approccio tanto semplice da un punto di vista logico quanto utile, in particolare in questo periodo.

Nel corso del 2022, l’azienda giapponese inizierà a distribuire campioni della tecnologia alle aziende, facendo pagare un fee periodico per il suo utilizzo. L’innovazione sarà offerta anche agli ospedali, che probabilmente verranno esentati dal pagare l’uso della tecnologia, proprio perché in prima fila nella lotta alla pandemia. Se questi esperimenti avranno successo in Giappone, è solo questione di tempo per un roll-out su scale globale.

Insomma, rassegnamoci, toccarci sta diventando un lusso quasi suscettibile di valore economico autonomo. Non mi stupirei se qualcuno dotato di un qualche passaporto vaccinale elettronico, cominciasse ad offrire abbracci gratis ai più bisognosi.

DIALOGHI CON I SOGNI

L’uomo ha conquistato molte frontiere, siamo andati sulla luna, in fondo agli oceani, abbiamo mappato il dna, cominciato ad esplorare il cervello, ma quando si parla di sogni, c’è ancora un alone di arcano ed ignoto che consideriamo affascinante.

Un team internazionale di ricercatori è stato in grado di tenere dei dialoghi in tempo reale con le persone nel bel mezzo dei cosiddetti “lucid dreams”, un fenomeno che viene chiamato “sogno interattivo”, secondo uno studio pubblicato settimana scorsa nella rivista Current Biology.

I sogni lucidi sono sogni nei quali siamo coscienti di sognare. Avvengono nel momento in cui, pur sognando, qualcosa nella nostra coscienza riconosce che ciò che sta accadendo non è nient’altro che parte di un sogno. Eppure non si oppone ad esso e lo lascia scorrere senza abbandonare lo stato del sogno.

I partecipanti allo studio sono stati in grado di rispondere correttamente ad alcune domande, come semplici problemi di matematica, mentre erano nel profondo del sonno REM (quello del rapid-eye movement). La ricerca rivela un canale di comunicazione relativamente inesplorato che potrebbe consentire una nuova strategia per l’esplorazione empirica dei sogni.

I sognatori hanno riferito di aver sentito le voci dei ricercatori come una sorta di narratore intangibile, identificandolo chiaramente come qualcosa proveniente dall’esterno del loro sogno. In realtà solo il 20% delle 36 persone che hanno condotto questo test hanno dato risposte corrette alle domande dei ricercatori, ma quello che è interessante e che hanno risposto più volte correttamente alla stessa domanda, dimostrando che l’interazione non era casuale.

Il tema dei lucid dreams è stato studiato in particolare per capire perché alcune persone sono in grado di avere questa esperienza ed altre meno oppure per nulla. Per esempio, si è spiegata una correlazione tra l’uso dei video giochi e questa capacità: il cervello dei giocatori sarebbe più propenso ad accettare scenari irreali, come quelli creati nei mondi virtuali del gaming, e quindi è come se fosse allenato. Abilità riportata poi nel mondo dei sogni.

Ma ben poco era stato studiato del momento preciso in cui il sogno avviene, e men che meno si era cercato di interagire con la persona addormentata in quello specifico momento.

Ok, mi direte, molto affascinante, ma cosa che ne facciamo adesso? Si tratta di uno sviluppo insolito, ma che potrebbe aiutare gli scienziati a ottenere un nuovo livello di comprensione del contenuto e della struttura dei sogni, per non parlare dell’apertura di nuove frontiere per la tecnologia, l’intrattenimento e persino la commercializzazione dei sogni.

Del resto non è ancora chiarissimo tutto il meccanismo che porta un’informazione vissuta nel mondo reale ad essere immagazzinata nel cervello. E poi essere prelevata ed usata insieme ad altre per formare un sogno. Paradossalmente se riuscissimo ad immagazzinare artificialmente informazioni nella nostra memoria, anche esperienze non realmente vissute, e fossimo capaci di richiamarle durante i sogni e mixarle, l’idea di vendere un sogno come fosse un film non sarebbe così balzana.

Ovviamente siamo ancora molto lontani da questi scenari, ma voi ve lo fareste “iniettare” un lucid dream artificiale?

SATELLITI, PESCA ED AI

A livello internazionale, la pesca illegale, non dichiarata e non regolamentata è una delle principali cause del declino degli stock ittici e della distruzione dell’habitat marino.

Si stima che rappresenti circa il 30% di tutta l’attività di pesca nel mondo, che coinvolga fino a 26 milioni di tonnellate di pesce catturato ogni anno, con un costo per l’economia globale di più di 23 miliardi di dollari. La pesca illegale è un fenomeno che avviene sia in alto mare che entro i limiti di 200 miglia degli stati costieri, il che ha un impatto particolarmente negativo sulle popolazioni delle aree costiere, rendendole vulnerabili. E non è facile da controllare, visto che ogni giorno in tutto il mondo si stima scendano in mare oltre 4 milioni di barche che si occupano di pesca. Capire chi fa le cose in regola e chi se ne approfitta non è banale.

Detto in estrema sintesi, la pesca illegale fa male sia all’ambiente che ai pescatori regolari che vedono sottratto loro un valore indispensabile per vivere, in una professione che ha già i suoi rischi e le sue durezze quotidiane. E comunque ci sono tre miliardi di persone nel mondo che dipendono dai frutti del mare come fonte primaria di proteine, soprattutto nei paesi in via di sviluppo. Il dodici per cento della popolazione mondiale dipende direttamente o indirettamente dall’industria della pesca per il proprio sostentamento. 

Tanto che dal 2018, combattere la pesca illegale è uno degli obiettivi del G7, tenutosi quell’anno in Canada. Ed è proprio da qui che inizia la nostra storia.

All’inizio di quest’anno, la Fisheries and Oceans Canada ha lanciato un programma pilota per tracciare i “dark vessels” a livello internazionale, lavorando con l’Agenzia Spaziale Canadese ed alcune ONG alle Bahamas e in Costa Rica. Questi “vascelli fantasma” sono imbarcazioni che pescano illegalmente e per non farsi identificare spengono i trasmettitori, che invece avrebbero l’obbligo di lasciare accesi. Un po’ come guidare senza targa per evitare una multa, solo che in questo caso o disponiamo di un sistema per rilevare il segnale, oppure ad occhio nudo un’imbarcazione tra le tante non ci dice nulla sulle sue pratiche.

E pochi giorni fa è stato siglato un contratto con due aziende canadesi che utilizzeranno un sistema satellitare per identificare i dark vessels. Il team mira a sviluppare una soluzione in grado di riconoscere le navi che pescano illegalmente, dissuadere e mettere in lista nera e infine perseguire i proprietari per proteggere la pesca globale e gli ecosistemi marini.

Il programma Dark Vessel Detection combinerà i dati provenienti da più missioni satellitari, combinati con la raccolta di radiofrequenze spaziali e l’analisi del geo-spettro per aiutare a localizzare le navi coinvolte nella pesca illegale. L’analisi avanzata, la piattaforma che combina dati multi-sensore e l’esperienza nello specifico dominio marittimo supporteranno la comunità internazionale a combattere questa delicata sfida.

E se non bastassero i satelliti, è scesa in campo anche l’intelligenza artificiale. Un sistema che si chiama OceanMind traccia attualmente migliaia di barche, con la capacità di seguirne milioni, in tutto il mondo, raccogliendo dati da una vasta gamma di fonti, compresi i transponder per evitare le collisioni a bordo delle barche, immagini radar, immagini satellitari e segnali di telefoni cellulari. 

L’analisi di queste enormi serie di dati, come potete immaginare, va oltre la capacità di qualsiasi persona. OceanMind ha sviluppato algoritmi di apprendimento automatico che prevedono il tipo di comportamento di pesca in base alla posizione della nave, e segnala le attività sospette e potenzialmente illegali come la pesca troppo vicina alla riva.

Questa tecnologia conta di riuscire a gestire la mappa delle navi in mare in maniera dinamica, quasi in real-time e dove rileva comportamenti sospetti avvisa le autorità, che si tratti della Thailandia o delle isole Galapagos o qualsiasi altra area costiera.

Insomma, le tecnologie più moderne contro la pratica “scorretta” di uno dei mestieri più antichi del mondo. Un altro esempio di tech for good, che continueremo a tenere monitorato.

CAVI SOTTOMARINI E TERREMOTI

Tutte le volte che l’uomo trova un modo intelligente di usare diversamente cose costruite per altri scopi, io ho sempre un moto di apprezzamento. L’ingegno non ha confini, ma in questa storia potremmo dire che ha parecchia profondità.

Partiamo dal problema: i terremoti che hanno origine sul fondo degli oceani non sono facili da rilevare, ma più che altro, quando avvengono è importante capire se le scosse possono dare origine a tsunami. E come sapete, visto che il fenomeno non si può arrestare, è cruciale avere l’informazione il più presto possibile, per allertare ed evacuare le zone costiere a rischio.

In un nuovo studio, un team di scienziati del CalTech rivela un modo per utilizzare la tecnologia esistente nelle profondità dell’oceano per rilevare queste scosse prima che causino danni. Il segreto per farlo? La tua cronologia di ricerca su Google: si, probabilmente in un certo senso quasi tutti noi abbiamo un ruolo, molto indiretto a dire il vero, su questa applicazione.

Lo studio è stato pubblicato giovedì sulla rivista Science e mostra come i cavi di telecomunicazione Curie di Google, che vanno dalla California al Cile, possono essere utilizzati per rilevare piccole perturbazioni nella luce polarizzata utilizzata per trasportare le informazioni lungo questi cavi. Queste perturbazioni sono correlate alle scosse sul fondo del mare.

Gli attuali approcci al monitoraggio sismico delle profondità marine, come le boe DART (Deep-ocean Assessment and Reporting of Tsunamis) utilizzate per rilevare gli tsunami, sono decisamente costosi e potenziarli ovviamente richiede tempo. Gli strumenti geofisici sottomarini convenzionali sono molto costosi da distribuire e mantenere, specialmente se devono funzionare continuativamente per molto tempo.

Questo nuovo approccio offre una soluzione che c’è già e può essere messa alla prova immediatamente, visto che sfrutta i preesistenti e diffusi cavi sottomarini in fibra ottica che sono già stati distribuiti per scopi di telecomunicazione. In questo modo, gli scienziati non hanno bisogno di aggiungere alcuna attrezzatura lungo il cavo o alle estremità della fibra: hanno semplicemente bisogno di accedere alle letture di polarizzazione che gli operatori di telecomunicazioni stanno già misurando per scopi di monitoraggio delle performance dei cavi.

Il Curie, per esempio, è un cavo sottomarino che alimenta i servizi di Google come Gmail, il classico motore di ricerca, ma anche YouTube e Google Cloud, grazie a 72 Tbs di larghezza di banda portata fino al Sud America.

Ma perché questi cavi sono perfetti allo scopo? Perché non li disturba nessuno, tranne i terremoti appunto. Si trovano a grandi profondità nell’oceano, quella massima di Curie per esempio è oltre 6.000 metri, le temperature sono abbastanza regolari e c’è poco o nulla che li disturba. A differenza dei cavi di telecomunicazione sulla terraferma non c’è nemmeno il tema dei veicoli o del traffico che possono produrre vibrazioni traffico.

Di conseguenza, anche piccole scosse di terremoto possono creare un cambiamento nella polarizzazione della luce che il team è stato in grado di collegare con l’attività sismica.

Semplice, limpido ed a basso costo. Insomma, la prossima volta che farete una ricerca su Google ricordatevelo, l’infrastruttura fisica che rende la vostra navigazione possibile, in quel momento ci sta anche proteggendo dagli tsunami. 

SALUTI

Grazie per aver ascoltato The Future Of, davvero! Avresti potuto ascoltare la radio, avresti potuto far girare un vinile, avresti potuto mettere su una cassetta, avresti potuto usare uno stereotto, ehm, a sapere cosa fosse, e invece hai preferito The Future Of. E’ per questo che ti ringrazio, ed hai ancora centinaia di puntate da scoprire.

Victor Hugo ha scritto: “Il futuro ha diversi nomi. Per i pavidi è impossibile, per i deboli di cuore è sconosciuto, ma per i valorosi è ideale.

Affaticamento da videocall ologrammi touchscreen dialoghi nei sogni satelliti pesca ed AI cavi sottomarini e terremoti

 

× Whatsapp