Musica e tecnologia dell’audio

Lo spazio dei curiosi di futuro

Musica e tecnologia dell'audio

S.9 Ep.177 – Musica e tecnologia dell’audio

Scenari (oltre il 2035) per la musica e la tecnologia dell’audio

1) concerti in VR: immaginate di assistere a un concerto comodamente da casa vostra, di indossare una cuffia VR e di essere immersi in un luogo virtuale dove, però potete anche interagire con altri spettatori virtuali. Gli artisti potrebbero sfruttare la VR per creare esperienze concertistiche uniche e surreali, spingendosi verso nuovi confini della musica e dell’arte visiva.

2) musica generata dall’AI: nel mio libro Emozioni 2051 ho raccontato una storia, intitolata Radio Pirata, dove raccontavo come nel 2051 la musica sarebbe stata, per legge, solo algoritmica. Certo era uno scenario pensato per la narrazione, ma il coinvolgimento dell’AI sarà un dato di fatto. Con il continuo progresso dell’intelligenza artificiale, potremmo assistere a un’impennata della musica generata dall’AI.

3) distribuzione decentralizzata: i contratti intelligenti potrebbero automatizzare i pagamenti delle royalties, garantendo agli artisti un compenso equo per il loro lavoro. Inoltre, la blockchain potrebbe consentire transazioni dirette peer-to-peer, permettendo ai musicisti di vendere la propria musica e il proprio merchandising senza dover ricorrere a intermediari tradizionali come le etichette discografiche.

4) esperienze musicali neurologiche: I progressi della biotecnologia e la nostra comprensione della neurologia potrebbero portare a modi innovativi di vivere la musica. Immagina una musica che non sia solo ascoltata ma anche percepita a livello fisiologico. Le interfacce neurologiche potrebbero tradurre i segnali musicali direttamente al cervello, creando un’esperienza di ascolto più coinvolgente e personalizzata.

I 5 perché

Musica e intelligenza artificiale

Uno. Perché dovremmo usare l’intelligenza artificiale per generare musica?

Due. Perché l’AI dovrebbe creare meglio dell’uomo o aiutarlo in questo senso?

Tre. Forse l’AI non si deve sostituire all’uomo, perché potrebbe essere un buon co-pilot?

Quattro. Perché un autore dovrebbe focalizzare maggiore attenzione sugli aspetti emotivi?

Cinque. Perché cercare questa connessione così? Non basterebbe un algoritmo di raccomandazione?

News dal futuro

AI e nuovi materiali per le batterie, grafene e semiconduttori, reti familiari globali, performance dei motori di ricerca, futuro dei chioschi di self-checkout.


ASCOLTA LA PUNTATA


SCENARI: MUSICA E TECNOLOGIA DELL’AUDIO

Le citazioni sulla musica ed il suo potere sull’uomo sono tantissime, una più bella dell’altra. Ludwig van Beethoven ha detto “La musica può cambiare il mondo perché può cambiare le persone.” Il grande scrittore di fiabe Andersen “dove le parole falliscono, ci pensa la musica”. Tolstoj ha addirittura affermato “La musica è la scorciatoia per le emozioni”.  Io, che ho scritto un libro, Emozioni 2051, associando ciascuna storia ad una canzone, a modi colonna sonora, non potevo non iniziare la nuova stagione che con questo argomento.

Per parlare di scenari futuri possibili nel mondo della musica, mi piacerebbe cominciare raccontandovi alcune delle visioni sul variegato mondo della musica che gli uomini avevano negli anni ’90. In pratica, un po’ di retro-future. Dal momento che fra poco vi racconterò alcune possibili evoluzioni per i prossimi 10-20 anni, è interessante guardarsi indietro e capire che aspettative avevamo: ci servono a tarare un po’ le visioni sul futuro, in funzione di quello che poi è successo realmente.

VISIONI PASSATE

Nel 1990, quando usciva Vogue di Madonna, la tecnologia digitale stava già emergendo come un fattore chiave, anche, nel settore della musica. Si pensava che la digitalizzazione avrebbe continuato a crescere, influenzando la produzione, la distribuzione e il consumo della musica. A partire dalla fine degli anni ’90, si è diffusa l’idea che Internet avrebbe avuto un impatto significativo sulla distribuzione della musica. La possibilità di scaricare e condividere file musicali online suggeriva che il futuro avrebbe visto una maggiore decentralizzazione e democratizzazione dell’industria musicale.

Il CD era il principale formato musicale, ma si stava già iniziando a discutere dei formati digitali compressi. Si iniziava ad immaginare che formati come l’MP3 avrebbero avuto un ruolo importante nel modo in cui le persone avrebbero consumato la musica nel futuro. La tecnologia di compressione MP3 è stata presentata al pubblico per la prima volta nel 1993. Karlheinz Brandenburg, lo scienziato che più di altri lavorò per raffinare il formato mp3 usò come test la canzone “Tom’s Diner” di Suzanne Vega, riascoltandola migliaia di volte, tanto che la cantautrice americana è stata ribattezzata ironicamente la “mamma degli mp3”.

Il formato ha poi guadagnato rapidamente popolarità a causa della sua capacità di rendere i file musicali più piccoli senza una perdita significativa di qualità, rendendoli più adatti per la distribuzione e lo scambio online. Il focus, in buona sostanza era sulla distribuzione della musica e fra poco vedremo che due degli scenari immaginati vertono ancora su questa tematica cruciale.

Ma c’è di più. C’erano aspettative anche sul modo in cui la musica veniva generata. Con l’avanzamento della tecnologia nella produzione musicale, si prevedeva che gli artisti avrebbero avuto a disposizione nuovi strumenti e tecniche per creare musica in modi innovativi. Con l’aumento della potenza di elaborazione dei computer e lo sviluppo di software specializzato, i musicisti e i produttori hanno infatti iniziato a utilizzare sempre più i computer come strumenti centrali nella produzione musicale. Software come Digital Audio Workstation (DAW) hanno permesso di registrare, modificare e mixare tracce audio in modo digitale.

I primi esperimenti risalivano, ad onor del vero, già agli anni ’80, ma è nel decennio successivo che software come Pro Tools, Cubase e Logic hanno iniziato a diventare ampiamente utilizzati come strumenti di produzione musicale professionale. Da allora, le DAW hanno continuato a evolversi con l’introduzione di nuove funzionalità, miglioramenti nell’interfaccia utente e integrazione di strumenti virtuali. C’era quindi l’aspettativa che la sintesi digitale avrebbe progressivamente sostituito quella analogica. Inoltre, ci si aspettava con grande piacere che la connettività digitale avrebbe reso possibile la collaborazione a distanza tra artisti e produttori. Questo è avvenuto ed ha permesso a musicisti di lavorare insieme anche se erano geograficamente distanti, aprendo nuove opportunità creative.

CONCERTI IN REALTA’ VIRTUALE

Nuovi modi di distribuzione, collaborazione tra artisti e diffusione della musica, questa volta dal vivo, caratterizzano il primo scenario futuro. Un incremento delle esperienze di concerti in realtà virtuale.

Grazie ai progressi della tecnologia della realtà virtuale, il modo in cui viviamo la musica dal vivo potrebbe subire una trasformazione significativa. Immaginate di assistere a un concerto comodamente da casa vostra, di indossare una cuffia VR e di essere immersi in un luogo virtuale dove, però potete anche interagire con altri spettatori virtuali. Gli artisti potrebbero sfruttare la VR per creare esperienze concertistiche uniche e surreali, spingendosi verso nuovi confini della musica e dell’arte visiva.

Meta offre già il servizio all’interno dell’ambiente Meta Horizon Worlds ed ha predisposto una scaletta di eventi settimanali insieme a iHeartRadio. Tra l’altro con vari artisti e superstar di sicuro interesse. Da ascoltare sia in diretta che in formato replay.

E già questi esempi rappresentano solo la “seconda generazione” di eventi già svolti in passato. Anche se non si è trattato di un concerto VR tradizionale, Travis Scott ha tenuto un evento virtuale nel 2020 su Fortnite, il popolare videogioco. Gli utenti di Fortnite hanno potuto partecipare a uno spettacolo virtuale in cui Travis Scott si è esibito in un mondo virtuale con effetti speciali e visivi sorprendenti. Lo stesso anno, Monstercat, un’etichetta discografica, ha organizzato una serie di eventi VR chiamati “Call of the Wild VR”. Gli utenti potevano partecipare al concerto e interagire con l’ambiente virtuale.

Io ritengo che, in un concerto live, l’atmosfera vibrante della folla, le luci abbaglianti del palco e la voce autentica e senza filtri dell’artista si combinano per creare un’esperienza coinvolgente difficile da replicare. Però un concerto VR può avere altri benefici: essere più inclusivo, aumentare l’interattività, far partecipare più artisti contemporaneamente anche se distanti fisicamente e, ultimo ma altrettanto importante, aumentare i ricavi di artisti e piattaforme.

Una ricerca del 2023, intitolata “Concert experiences in virtual reality environments” ha identificato le principali motivazioni di apprezzamento degli utenti: l’unicità dell’esperienza, la possibilità di cambiare inquadratura e vedere gli artisti anche da vicino, la possibilità di sopperire all’assenza di concerti live, l’opportunità di riunirsi anche con amici che vivono in altri Stati, ma anche la possibilità di abbandonare a piacimento senza problemi. Insomma, gli utenti mostrano un certo grado di apprezzamento, anche se questo non vuol dire necessariamente che la soluzione si diffonderà a livello mainstream.

DISTRIBUZIONE DECENTRALIZZATA

Il secondo scenario verte ancora sulla distribuzione del prodotto musicale e l’ho intitolato “distribuzione decentralizzata della musica tramite Blockchain”.

La tecnologia blockchain ha il potenziale per rivoluzionare l’industria musicale fornendo una piattaforma decentralizzata e trasparente per artisti e fan. I contratti intelligenti potrebbero automatizzare i pagamenti delle royalties, garantendo agli artisti un compenso equo per il loro lavoro. Inoltre, la blockchain potrebbe consentire transazioni dirette peer-to-peer, permettendo ai musicisti di vendere la propria musica e il proprio merchandising senza dover ricorrere a intermediari tradizionali come le etichette discografiche. Questo potrebbe dare potere agli artisti indipendenti e favorire una connessione più diretta tra i creatori e il loro pubblico.

La tecnologia blockchain, lo sapete, è un registro digitale distribuito e immutabile che consente di registrare transazioni in modo sicuro e trasparente. Quindi, per esempio, un musicista pubblica una canzone su una piattaforma di streaming che utilizza la tecnologia blockchain: ogni volta che la canzone viene riprodotta, la transazione viene registrata nella blockchain, e il pagamento delle royalties viene automaticamente inviato all’artista in base a un contratto intelligente predefinito. Senza che nessuno possa alterare i dati.

Oppure, un artista potrebbe pubblicare la sua musica su una piattaforma basata su blockchain e permettere ai fan di acquistarla direttamente con criptovalute o altri metodi di pagamento più tradizionali. Le transazioni sono registrate sulla blockchain, garantendo la trasparenza e la tracciabilità. Immagino che, nel caso di performance molto particolari, come le prime, concerti in luoghi speciali, duetti rari e così via, ci potrebbe anche essere un mercato “a numero chiuso” per essere gli unici o i pochi a poter comprare determinati eventi.

Fino al punto che un musicista potrebbe emettere token che rappresentano una parte dei diritti d’autore della sua ultima canzone. I fan possono acquistare questi token, diventando così co-proprietari dei diritti e ricevendo una percentuale delle royalties generate dalla canzone. Si potrebbe persino creare una “Borsa” dei diritti aperta al pubblico, invece che riservata ai soli artisti ed alle loro case discografiche.

MUSICA GENERATA DALL’AI

Per il terzo scenario, entriamo invece nel campo di come la musica può essere prodotta. Il dominio della musica generata dall’intelligenza artificiale. Nel mio libro Emozioni 2051 ho raccontato una storia, intitolata Radio Pirata, dove raccontavo come nel 2051 la musica sarebbe stata, per legge, solo algoritmica. Certo era uno scenario pensato per la narrazione, ma il coinvolgimento dell’AI sarà un dato di fatto.

Con il continuo progresso dell’intelligenza artificiale, potremmo assistere a un’impennata della musica generata dall’AI. Gli algoritmi di intelligenza artificiale potrebbero essere utilizzati per assistere i musicisti umani nella creazione di nuovi suoni (il famoso concetto di co-pilot, tanto in voga in questo periodo), oppure proprio per comporre brani originali. Questo potrebbe portare a una gamma di stili e generi musicali diversi, prima inimmaginabili. L’intelligenza artificiale potrebbe anche svolgere un ruolo nelle raccomandazioni musicali personalizzate, adattando playlist e composizioni alle preferenze individuali sulla base di un’analisi approfondita dei dati.

La prima traccia interamente generata dall’AI è stata “Daddy’s Car”, una canzone composta nel 2016 da un algoritmo chiamato AIVA (Artificial Intelligence Virtual Artist). AIVA è stato creato da Pierre Barreau, un ingegnere informatico e musicista. “Daddy’s Car” è stata prodotta utilizzando l’AI per generare la melodia, gli arrangiamenti e i testi. L’esecuzione della canzone è stata affidata a musicisti umani. Dal 2016 ad oggi sembra già passato un secolo. Il fenomeno può solo aumentare.

L’AI generativa in campo musicale spazzerà via l’operatore umano in tutti quei contenuti, permettetemi di chiamarli “a basso valore aggiunto” come intro, outro, gingle, siglette e così via. E progressivamente comincerà a “mangiarsi” altri aspetti della complessa creazione della musica: generazione delle melodie, arrangiamenti, testi, voce e così via. Fino al momento in cui l’AI che ha generato la musica, si fonderà con l’AI che ha generato l’artista dal punto di vista visuale. Con la collaborazione delle piattaforme di streaming, non sarà difficile testare cantanti, band e musiche interamente digitali, vedere quello che funziona e scartare tutto quello che non trova l’apprezzamento del pubblico. Un po’ come quando si vedono le puntate pilota di una serie su Netflix. Vi piace? Si va avanti a produrre la prossima puntata. Non vi piace? Arrivederci e amici come prima.

ESPERIENZE NEUROLOGICHE

Per il quarto scenario, ci tuffiamo infine in un contesto che sembra più futuristico degli altri: esperienze musicali biotecnologiche e neurologiche.

I progressi della biotecnologia e la nostra comprensione della neurologia potrebbero portare a modi innovativi di vivere la musica. Immagina una musica che non sia solo ascoltata ma anche percepita a livello fisiologico. Le interfacce neurologiche potrebbero tradurre i segnali musicali direttamente al cervello, creando un’esperienza di ascolto più coinvolgente e personalizzata. Inoltre, i dati biometrici potrebbero essere utilizzati per regolare dinamicamente la musica in tempo reale in base all’umore o alle preferenze dell’ascoltatore, creando un viaggio musicale davvero interattivo e adattivo.

Qualche esempio. Alcune app musicali stanno sperimentando con l’utilizzo di dati biometrici per adattare la musica allo stato d’animo dell’ascoltatore. Se i dati biometrici indicano che una persona è stressata, la musica potrebbe diventare più rilassante o adattarsi per favorire un cambiamento di stato d’animo.

Nel campo del neurofeedback, ci sono applicazioni che utilizzano l’attività cerebrale per influenzare la musica stessa. Dispositivi come EEG (elettroencefalogramma) possono monitorare l’attività cerebrale e adattare la musica in tempo reale in base agli stati mentali dell’ascoltatore. Ad esempio, se l’utente raggiunge uno stato di rilassamento, la musica potrebbe rispondere adattandosi a un ritmo più lento o a toni più dolci. Certo i dispositivi ad uso consumer sono ancora abbastanza rudimentali e dovranno arrivare sul mercato in maniera più convinta, ma lo spazio per queste applicazioni sembra esserci. Del resto, il megatrend della personalizzazione promette molto da tempo e non è ancora perfettamente compiuto, ma sembra non smettere di restare al centro dell’attenzione. Dal campo medico al leisure il passo è breve.

O ancora, alcune aziende come Neurable, Muse, OpenBCI stanno sviluppando prototipi di interfaccia cervello-musica che consentono agli utenti di controllare direttamente la musica attraverso l’attività cerebrale. I loro dispositivi mirano ad offrire un modo completamente nuovo di interagire con la musica, consentendo un controllo più intuitivo e personalizzato.

Un ostacolo a questo scenario sembra essere il probabile divieto di sviluppare applicazioni di intelligenza artificiale basate su dati biometrici, ma se l’uso è questo e non quello medico potenzialmente più invasivo ed invadente e limitante delle libertà personali, forse vedremo delle eccezioni interessanti.

CONCLUSIONI

Ricapitolando, i quattro scenari sono:

  1. incremento delle esperienze di concerti in realtà virtuale
  2. distribuzione decentralizzata della musica tramite Blockchain
  3. dominio della musica generata dall’intelligenza artificiale
  4. esperienze musicali biotecnologiche e neurologiche

Scenari che, tra l’altro, non sono mutualmente esclusivi l’uno degli altri, ma potrebbero anche coesistere tutti insieme, fondersi parzialmente ed aprire ad ulteriori scenari fin qui non immaginati. E voi cosa ne pensate? Avete delle sensazioni o dei dati che alcuni di questi progressi emergeranno in maniera significativa? O che alcune di queste visioni siano completamente sbagliate? Condividete i vostri spunti con me scrivendomi dal sito di The Future Of o suoi social e vediamo di arricchire il dibattito, se lo desiderate.


APPROFONDIMENTI

How AI Is Transforming Music | TIME

How Music NFTs Can Reshape the Music Industry | Chainlink Blog

EXPERT COMMENT: How music heals us, even when it’s sad – by a neuroscientist leading a new study of musical therapy (northumbria.ac.uk)


I LIBRI DI THE FUTURE OF