Puntata #44

Futuro, Startup, Fundraising & Venture Capital

Guardare la tv nel 2040

Allegria! Amici telespettatori. Guardare la televisione nel 2040 è il tema di questa nuova puntata. Produzione, distribuzione e fruizione dei contenuti stanno andando incontro a cambiamenti e innovazioni spettacolari. La televisione è morta. Lunga vita alla televisione.

Considerate di supportare The Future Of grazie alla campagna di raccolta fondi su Patreon.
https://www.patreon.com/thefutureof

Entrate nella community, iscrivetevi al canale Telegram.
https://t.me/thefutureof



Guardare la televisione nel 2040

John Clever dopo una meravigliosa cena decise che avrebbe chiuso la giornata davanti alla televisione. Comunicò la sua intenzione ad alta voce e, Meggie, la sua assistente vocale digitale, fece comparire fluttuanti nell’aria alcune icone con varie opzioni. Televisione a parete, visione ambientale 3D, visore di realtà virtuale o smartphone.

Clever si sedette sul comodo divano e optò per la televisione tradizionale. La scelse con un gesto della mano accennato in direzione dell’icona.

Fissò il grandissimo acquario che troneggiava in salotto dove pesci tropicali colorati danzavano fluidi nell’acqua cristallina. All’improvviso i pesci scomparirono e dallo sfondo nero comparve il logo del produttore della televisione. L’algoritmo di intelligenza artificiale conosceva benissimo i gusti di Clever, li aveva imparati in tanti anni di apprendimento. Ma la nuova interessante funzionalità lanciata recentemente gli consentiva anche di interfacciarsi con lo smartwatch dell’utente e rilevare le sue condizioni fisiche del momento.

Clever in piena digestione aveva probabilmente bisogno di un po’ di azione, altrimenti si sarebbe addormentato di lì a poco.

I loghi dei grandi fornitori di streaming e video on demand erano tutti in bella vista, un po’ come le merci al supermercato. Sia i generalisti che quelli cosiddetti pop-up che fornivano contenuti di nicchia altamente specializzati. Clever navigò all’interno e si lasciò suggerire un film di azione e spionaggio, con la speranza che lo tenesse incollato allo schermo per tutta la sua durata. Non appena il film iniziò a scorrere, un sistema di telecamere inquadrò la figura di Clever, riconobbe che era un maschio adulto bianco sulla cinquantina e si mise a monitorare il movimento dei suoi occhi sullo schermo, la postura del corpo e raccogliere eventuali commenti ed espressioni del volto. Ogni interazione con le tecnologia era ormai diventata un ulteriore canale per alimentare quell’io-algoritmico che consentiva ai grandi gestori di dati, di conoscere i loro utenti meglio di loro stessi.    

Ma non solo, la raccolta di dati riguardava anche il film. Dalle espressioni dell’osservatore, dal suo stupore, coinvolgimento o noia, e tutte le altre emozioni, i produttori dei film potevano avere accesso ad una miriade di dati qualitativi. Dati che venivano usati per scegliere i passaggi migliori per i trailer, targettizzare meglio la promozione per diverse categorie di utenti e persino modificare digitalmente alcune scene per renderle migliori.

Era persino nato un indice di gradimento standard che cercava di rendere quanto più possibile oggettiva la reazione del pubblico ad ogni singolo film e, non sorprendentemente, le classifiche erano dominate dai contenuti con il punteggio maggiore.

Bei tempi quando si usavano le stelline ed i like sui social o valeva ancora il meraviglioso passaparola “ho visto davvero un bel film, dovresti vederlo anche tu”.

Clever si concentrò sui personaggi, sui loro volti. La recitazione era notevole. Si ritrovò a chiedersi se davvero gli attori fossero umani ed in che lingua avessero recitato. Ormai dal matrimonio tra intelligenza artificiale e computer grafica, erano nati una serie di attori che non esistevano nella realtà, ma che avevano tutte le caratteristiche per piacere al pubblico, perché il loro volto, corpo e voce erano stati progettati proprio sui gusti dei consumatori.

Mentre per quanto riguarda la recitazione, ormai era noto che l’evoluzione delle più sofisticate tecnologie, che vent’anni prima erano state additate come deep-fake, consentiva di sincronizzare voce e movimenti delle labbra, in qualsiasi lingua, anche su attori reali.

A tre quarti del film, il televisore sollecitò a Clever due opzioni. Interrompere per cinque minuti ed ascoltare le flash-news e poi scegliere il finale del film.

Clever che era stato tutto il giorno impegnato in ufficio un po’ fuori dal mondo, quindi decise di ascoltare le brevi notizie del giorno. Un presentatore digitale, questo sicuramente creato da un software, affiancato da un collega che recitava in perfetto sincrono le news per i non udenti, gli raccontarono brevemente gli eventi della giornata.

Clever guardò quasi distratto e passò rapidamente alla scelta del finale. Il televisore gli presentò ben tre opzioni con titoli intriganti: il bene vince sul male, all’ultimo respiro, agrodolce. Era ormai diventata una scelta abbastanza comune per i produttori, girare due o più finali diversi, lasciando alle preferenze dell’utente come chiudere il film. 

La scelta cadde su “all’ultimo respiro”. E l’azione fatta di sparatorie, inseguimenti, tuffi e combattimenti imperversò nel salotto, quasi come al cinema. Lo schermo da 100 pollici in altissima risoluzione diede il meglio di sé, ma anche l’audio spaziale rese l’esperienza davvero unica. Un sistema di diffusori era stato posizionato nel salotto di Clever con la logica di essere praticamente invisibile. Alcune erano delle piccole casse come eravamo abituati a vedere da tempo, altri erano embedded nella lampadine dei lumi, oppure in alcuni soprammobili sparsi per la stanza. Il settaggio del sistema era semplicemente fantastico. Il televisore aveva mappato la stanza, riconosciuto i diffusori e lasciato all’utente stabilire solo in che punto avrebbe guardato la tv. Tipicamente sul divano.

Da quel momento in poi toccava ai produttori del film ed al software. Le tracce audio erano tutte registrate ed isolate ed un potente software ottimizzava il suono, decidendo da quali diffusori dovesse provenire e con quale potenza, per raggiungere al meglio le orecchie dell’ascoltatore. I suoni dell’elicottero provenivano dai faretti sul soffitto e le pallottole sparate alla schiena del protagonista, dalla cornice di un quadro appeso sulla parete proprio dietro a Clever.

Fu un vero trionfo e Clever finì il film soddisfatto, ma talmente adrenalinico, che di andare a dormire non se ne parlava nemmeno. Comandò a Meggie “visione ambientale 3D” ed andò a cercare sulle emittenti sportive una partita notturna dell’NBA americana. Quella sera era fortunato. Lakers contro Bulls era sempre un bel vedere. Anche se il mondo era letteralmente impazzito per gli esports, Clever adorava ancora assistere al confronto umano giocato, al contatto, piuttosto che ammirare sfide virtuali dentro un videogame, che era diventata una platea amatissima dai giovanissimi.

La visione ambientale in 3D, supportata da una comunicazione 6G velocissima, proiettò le immagini in 3 dimensioni ad altissima risoluzione nel salotto proprio davanti ai suoi occhi. Non servivano occhiali con lenti dedicate. La prima cosa che notò, e gli destava sempre una certa meraviglia, è che lo sponsor sulle maglie e sui cartelloni pubblicitari a bordo campo, fosse un prodotto italianissimo che lui conosceva bene e consumava con frequenza. Una  birra locale. Da tempo ormai nessuno sponsorizzava più le compagini sportive in maniera esclusiva. Erano gli algoritmi a scegliere cosa compariva sulle maglie, adattandolo all’osservatore, ai suoi gusti, ed alla sua provenienza geografica. Ed ovviamente al movimento delle maglie stesse, tanto da sembrare che il logo vi fosse stampato sopra. I profitti poi venivano re-distribuiti tra chi raccoglieva le sponsorizzazioni e le squadre stesse.

Ma forse la cosa che più lo eccitava era la visione immersiva. Un tempo era semplicemente la camera car sui veicoli di formula 1, ora una serie di telecamere piattissime installate sul colletto e sul petto delle maglie degli atleti consentiva di vedere la gara immedesimandosi in uno di loro a scelta. Clever scelse uno dei pivot, in maniera tale che la visuale provenisse sempre da uno dei giocatori centrali nella manovra.

Non c’era più nemmeno un operatore umano che gestiva la regia e le inquadrature. Tutto veniva ottimizzato da un software che gestiva le decine di telecamere ambientali e quelle wearables, alternando la visuale esterna a quella prodotta dal giocatore. Il tiro libero era un momento davvero speciale. Se ci si faceva appena un po’ di attenzione, si poteva percepire il respiro affannoso del giocatore che dopo una corsa o un contrasto in movimento, si concentrava per il tiro dalla lunetta.

L’ultra rallenty era diventato inoltre uno strumento di uso comune. Nei momenti di interruzione del gioco, una serie di telecamere dedicate scomponevano i movimenti ad un livello di dettaglio tale e da tante angolature, che su uno schermo di tre metri di diagonale si potevano quasi vedere i pori della pelle. L’affermazione “essere dentro l’azione” aveva preso un significato completamente nuovo: guardare la televisione nel 2040 era diventata un’esperienza molto più simile alla realtà, almeno per gli eventi live.

Un amico gli aveva anche suggerito di comprare un sistema di smell-o-vision, cioè un dispositivo in grado di simulare gli odori provenienti dai film, ma per una partita di basket, sentire il sudore degli atleti non sarebbe certo stata la sua preferenza. Molto meglio un film romantico, dove forse una lei profumata e seducente, avrebbe fatto ben altro effetto, ma Clever non si era ancora deciso all’acquisto.

Poco prima della fine della partita Clever andò a prepararsi una tazza di latte caldo, propedeutica ad un buon sonno. Appena mise piede in cucina, il monitor del frigorifero rimbalzò subito la gara sul suo modesto schermo. Lo stesso sarebbe capitato se Clever fosse entrato in camera da letto dove era in ricarica il suo smartphone. Meggie aveva avviato la funzione follow-on, in modo che ovunque Clever andasse la partita lo seguisse, senza fargli perdere nemmeno un’azione. Se avesse preso l’ascensore per andare in garage, persino lo specchio si sarebbe acceso, ed ovviamente la televisione installata nel suo veicolo autonomo.

Una specie di stalkeraggio in real time che lo faceva ridere parecchio, al pensiero di tutti quelli che dicevano pochi anni prima, che la televisione era destinata a scomparire. La televisione è morta, lunga vita alla televisione.

Commenti

Guardare la televisione nel 2040 è un tema articolato che riguarda i tre mondi della produzione, distribuzione e fruizione dei contenuti.

La produzione dei contenuti è ovviamente il punto di partenza. Con l’attenzione particolare che, a differenza di altre discipline, è chiaramente frutto di un grande lavoro di squadra che non può essere individualizzato. Vero è che youtubers di valore possono generare anche da soli video rilevanti, ma per arrivare ai livelli di qualità e complessità delle produzioni televisive, serve il lavoro di molti operatori. Si può scrivere un libro o dipingere un quadro da soli, non si riesce quasi mai a fare un film da soli.

Anche se la combinazione di dati ed intelligenza artificiale potrebbe in teoria portare alla costruzione di film fatti interamente da un algoritmo. Oggi siamo ancora piuttosto lontani, ma va ricordato l’esempio del film Sunspring.

Sunspring è un cortometraggio sperimentale di fantascienza del 2016 scritto interamente da un bot di intelligenza artificiale che utilizza reti neurali. È stato addestrato a scrivere la sceneggiatura alimentandola con un corpus di dozzine di sceneggiature fantascientifiche trovate online, soprattutto film degli anni Ottanta e Novanta. Il regista, Oscar Sharp, ha collaborato con il suo socio di lunga data Ross Goodwin, un ricercatore di AI dell’Università di New York, per creare il bot, che inizialmente si chiamava Jetson. Ribattezzato Benjamin, ha scritto la sceneggiatura, ma anche le indicazioni sceniche ed i dialoghi.

Il film è stato poi interpretato da attori umani, ma anche questa è una frontiera che potrebbe presto essere superata. Li chiamano digital o virtual humans, ma ad oggi c’è ancora, per così dire un trucco. E’ già possibile costruire digitalmente personaggi fittizi o riprodurre attori deceduti, ma in tutti i casi c’è sempre dietro un performer che imita i movimenti del corpo, le espressioni facciali e la recitazione dell’originale. Il computer prende i punti di riferimento della sua attività e ci costruisce attorno il protagonista originario, digitalmente. Una pratica che proviene dal mondo del gaming e che spiega perché i personaggi di taluni videogame, siano ormai così realistici da apparire reali.

Potremmo un giorno vedere degli esseri umani digitali esteticamente convincenti combinati con gli esseri umani virtuali guidati dall’intelligenza artificiale per produrre attori completamente artificiali? Questo, teoricamente, potrebbe portare a spettacoli senza bisogno di attori umani. Se volete vedere qualcosa che comincia ad andare in quella direzione, ma in campo musicale, andate in rete a cercare notizie su Hatsune Miku, l’ologramma popstar cinese. Vi lascio il link sul sito di The Future Of, ma si trova facilmente su Google.

Ma in ambito generazione di contenuti ci sono alcuni spunti importanti che vorrei condividere con voi:

  1. il primo è che se la fruizione dei contenuti sta diventando sempre più fast e quasi di impulso, come avviene sui social o su youtube, probabilmente si ridurranno le durate dei contenuti: meno film, più serie tv; più storie brevi, quasi instant e contenuti o canali pop-up, che si specializzano su temi di nicchia
  2. le produzioni potranno essere testate: dovremo fare l’abitudine a serie che iniziano con una o due puntate, e solo se troveranno il gradimento del pubblico, misurato in maniera analitica, continueranno ad evolversi, altrimenti non verranno comprate, prodotte e moriranno ancora in fase sperimentale
  3. le tecnologie ci consentiranno di recuperare capolavori del passato e migliorarne la qualità, per esempio colorando i film in bianco e nero, salvando gli audio originali e così via

L’altro grande tema è quello della distribuzione. Oggi Hollywood è entrata in competizione con Netflix, Amazon, Apple ed i giganti in possesso di dati che consentono di conoscere i gusti dei consumatori ed hanno anche piattaforme tecnologiche per l’erogazione degli stessi. Con dei distinguo tra i protagonisti. 

Netflix monetizza i suoi contenuti solo attraverso gli abbonamenti, mentre praticamente tutti i suoi concorrenti di origine tecnologica si limitano a utilizzare i loro contenuti come marketing per guidare modelli di business fondamentalmente diversi, più profondi e flessibili. Apple usa i contenuti per vendere più iPhone e Mac. Amazon per vendere più abbonamenti Prime e fare shopping. Google per vendere più annunci. AT&T e Verizon per vendere più piani wireless. Alla fine, uno di questi colossi, o qualche altro colosso internazionale come Tencent o Alibaba potrebbe acquistare Netflix. Il suo marchio, la sua base e il suo impegno sono inestimabili. E Netflix per resistere come operatore stand alone di distribuzione ha cominciato ad ingrandirsi nella direzione della produzione, con il rischio che si mangi Hollywood. Abbiamo forse letto tutti che nel 2019 ha investito ben 15 miliardi di dollari per produrre contenuti originali a marchio Netflix, una cifra imponente e molto più grande dei 6 investiti da Apple, che però non ha la televisione come business principale.

Oggi assistiamo letteralmente ad un supermercato della distribuzione. E’ poco plausibile che continueremo a sopportare il sostenimento di tanti canoni: Netflix, Apple, Amazon, Dazn, Chili, NowTV, Hulu, Sky e chi più ne ha più ne metta.

Gli scenari a livello globale ce li racconta molto bene uno studio di Deloitte. Il primo scenario è appunto quello dell’universal supermarket descritto poco fa. Il secondo è quello dove prendono il sopravvento i produttori di contenuti. Il terzo è la rivincita dei national broadcasters, insomma un po’ come se il vincitore fosse la nostra RAI. Il quarto è la fluidità dove non c’è un leader, ma sopravvivono molti operatori in un ecosistema ampio e complesso.

Già il fatto che esistano quattro scenari così diversi, ci lascia capire che nessuno oggi si voglia imbarcare in previsioni che riguardano un contesto così complesso.

Sempre in ambito distribuzione merita un cenno il tema della pubblicità personalizzata e dell’interazione con i contenuti. 

Sta finendo l’era in cui guardare la televisione è un atto compiuto da un osservatore passivo. Guardare la televisione nel 2040 vorrà dire anche farsi guardare dalla televisione.

Già oggi gli smart-tv sono in grado di monitorare costantemente ciò che i loro proprietari guardando e fornire questa informazione al produttore del televisore o ai suoi partner commerciali, utilizzando una tecnologia chiamata ACR, o “riconoscimento automatico dei contenuti”.

L’ACR aiuta la TV a consigliare altri programmi che potrebbero piacervi, ma può anche essere usato anche per targettizzare comunicazioni pubblicitarie. I dati possono anche essere combinati con altri aspetti delle vostre informazioni personali per aiutare a costruire profili sul vostro comportamento che vengono venduti ad altri marketer.

In linea di principio questo può non essere un problema se sicurezza e privacy vengono salvaguardate, cosa che però in questo momento non è trattata uniformemente in tutte le legislazioni. 

Ed il prossimo passo sarà quello di dotare i televisori di telecamere per riconoscere le persone ed il loro linguaggio del corpo mentre sono davanti allo schermo, come raccontato nella storia di John Clever.

Ma forse il caso più eccitante di interazione è quello dei contenuti con più finali, i cosiddetti “multiple endings” oppure addirittura con storie interattive dove l’utente può scegliere diversi percorsi per la storia. Netflix a fine 2018 ha distribuito il film “Black Mirror”: Bandersnatch”, che presenta una trama interattiva, in stile “scegliete voi stessi l’avventura”, che è stato in fase di realizzazione per quasi due anni. Del resto più aumentano le possibili opzioni e quindi i tanti scenari che si possono combinare tra loro, più la realizzazione diventa complessa. Cambiare finale in sé è semplice, ma se la storia può prendere tante pieghe diverse ovviamente diventa tutto più difficile. Ma anche personalizzato. Si potrebbe arrivare ad avere film, che grazie ad un numero molto elevato di permutazioni, sarebbero praticamente diversi per la maggior parte degli utenti.

Lato tecnologia utente, le meraviglie del futuro sono su tutte le pagine delle principali riviste di tecnologia. Televisori Oled 8k da 120 pollici e 33 milioni di pixel sono già stati costruiti, anche se i prezzi sono praticamente quelli di una supercar di lusso o di un piccolo jet privato. Vi faccio notare che 120 pollici sono circa 3 metri di diagonale, qualcosa che richiede anche un ambiente delle dimensioni adatte, per non sprecare la grande qualità dell’immagine che viene prodotta. 

Ma forse il punto più interessante è quello dell’8K. Non voglio ribadire qui temi ampiamente discussi sulle riviste specialistiche, ma la tendenza è quella dell’aumento della qualità. E forse pensare al 2040 per la diffusione di massa di questa tecnologia non è così bizzarro. Il problema non è costruire televisori 8K, è generare contenuti nativi in 8K. Cosa che richiede attrezzature ad-hoc per la registrazione, il montaggio ed il trasferimento dei dati. Uno sforzo che vede l’emittente nazionale giapponese NHK, leader del processo, spinta anche dalle prossime olimpiadi di Tokio. Ma per avere un roll-out di massa, servirà un tempo ancora lunghissimo. Ammesso e non concesso che gli utenti vogliano davvero una qualità così importante ed immersiva per vedere anche contenuti ordinari.

Lo smell-o-vision per sentire gli odori dei film esiste. Pensate lo ha inventato un signore che si chiama Hans Lube ed è comparso per la prima, ed unica volta, nel 1960. Il film si intitolava non a caso “Scent of Mistery”, profumo di mistero e venne proiettato solo al cinema. Il dispositivo era in grado di sparare in sala una trentina di odori, per rendere il coinvolgimento ancora più realistico. Se dal 1960 ad oggi, la tecnologia non si è diffusa, onestamente penso che non lo farà mai, ma era una storia che mi piaceva raccontare. 

Nel prossimo episodio continueremo a parlare di leisure, ma uscendo di casa. Vi racconterò come potrà svolgersi una giornata in un parco divertimenti, all’aperto o al cinema, insomma fuori dalle mura domestiche, dove l’aggregazione, il coinvolgimento e l’adrenalina la faranno da padrona.

 

× Whatsapp