Jules Verne, che nella seconda metà dell'800 profetizzò nei suoi romanzi molte delle scoperte tecnologiche dei cento anni successivi, probabilmente rimarrebbe ammirato da quello che è possibile fare oggi. Ovviamente l'impennata del progresso tecnologico ha reso possibili cose che solo 20-30 anni fa erano fuori dai radar, però il salto quantico che l'intelligenza artificiale sta facendo fare alla tecnologia in alcuni campi avrebbe lasciato basito persino il buon Jules.
Utilizzando il software di intelligenza artificiale di Google, Magenta, Sean O'Connor e il suo team di ricercatori e creativi del progetto Over The Bridge, hanno analizzato centinaia di canzoni degli artisti del cosiddetto "Club dei 27". L'IA ha elaborato, analizzato e convertito in dati le canzoni ed è riuscita a produrre come risultato finale delle canzoni che potrebbero tranquillamente passare per dei pezzi mai pubblicati di artisti come Jimi Hendrix, Nirvana, Amy Winehouse e molti altri.
Per tutti i musicisti che già si stanno spaventando e convertendo al più radicale luddismo, posso dire che il processo non è ne semplice ne così diretto come può sembrare a prima vista. Ci sono molte mani umane che devono ancora intervenire in tutto il processo per arrivare al risultato finito, davvero notevole, che potete sentire in questi video. Tuttavia bisogna dire che tutto il materiale utilizzato per produrli è stato creato dall'intelligenza artificiale e questo è un risultato che ci fa intravedere quanto le macchine entreranno via via sempre di più anche in quella che sembra la più intoccabile delle attività umane, la creatività.
"Lost Tapes of the 27 Club" è un progetto di Over the Bridge, organizzazione con base a Toronto che con questa operazione spera di portare maggiore consapevolezza riguardo la loro attività di supporto ai problemi di salute mentale dei musicisti. Le canzoni che potete sentire "You’re Gonna Kill Me" nello stile di Hendrix e "Drowned in the Sun" nello stile dei Nirvana, fanno parte di questi brani realizzati per sembrare a tutti gli effetti come degli inediti dei famosi musicisti morti all'età di 27 anni. Ci sono canzoni anche dei Doors, Amy Winehouse ed altri.
Magenta è stato utilizzato per analizzare le canzoni ma prima i ricercatori hanno dovuto prepararle perchè fossero comprensibili all' IA. Sono state prima spezzettate in ritornelli, ritmiche, riff, progressioni armoniche, assoli, melodie e testi separatamente, tutto questo per 30 canzoni per ogni artista. Quindi Magenta ha potuto fare il suo lavoro di apprendimento e rielaborazione.
"Abbiamo preso 20-30 canzoni, convertite in MIDI, scomposte in parti e analizzate separatamente" spiega Sean O'Connor, che ironicamente ha una forte assonanza con quel John Connor che in Terminator diventerà il principale capo della resistenza contro le macchine comandate dall'IA ribelle Skynet. "Se avessimo analizzato le canzoni per intero il programma avrebbe dato un risultato molto confuso ma, se gli dai in pasto una serie di riff, ti restituisce circa cinque minuti di materiale musicale completamente prodotto dall'IA. Il 90% è inascoltabile, quindi per ora bisogna ancora fare tutto un lavoro di estrazione per scegliere solo le parti più interessanti."
Magenta è un progetto di ricerca open-source finanziato e creato da Google che ha come obbiettivo quello di esplorare il ruolo del machine learning come strumento nel processo creativo. Creato da ricercatori ed ingegneri del team Google Brain, ha visto lo sviluppo di nuovi algoritmi di deep learning e reinforcement learning per generare canzoni, immagini, disegni e altro materiale. Lo scopo è quello di creare strumenti intelligenti e interfacce che permettano agli artisti e musicisti di estendere il proprio processo creativo, non quindi quello di sostituire gli artisti. Possiamo dormire sonni tranquilli, almeno per qualche annetto ancora.
Per "Drowned in The Sun" la voce di Cobain è stata "ricreata" in maniera completamente analogica, semplicemente ingaggiando Eric Hogan, cantante di un tributo ai Nirvana, ma tutto il resto è stato generato dal computer. Hogan inizialmente era rimasto abbastanza dubbioso su come procedere: "Non sapevo davvero come cantare questa melodia. Un tizio arrivava con le tracce generate dall'IA e io dovevo ipotizzare un'interpretazione. E' stato strano cercare di pensare cosa avrebbe fatto Cobain. Mi hanno dovuto dare un po' di indicazioni ma poi è andata bene."
Ed il risultato è molto credibile, tanto che c'è da chiedersi se in futuro, con tutto il parlare che si fa in questi anni di deep fake, se non si creerà un nuovo filone musicale di nuove canzoni reinterpretate nello stile di questo o quel gruppo storico. Oppure un altro scenario, piuttosto distopico lo ammetto, potrebbe essere quello di case discografiche e gruppi creativi che, analizzando i dati di mercato e le preferenze della gente, inizino a produrre tracce generate dall'intelligenza artificiale da dare poi a gruppi studiati a tavolino "in laboratorio" per avere il maggior impatto e la miglior risposta del pubblico.
Pensate a quello che ora fanno già Amazon, Google e Facebook nel proporci prodotti e pubblicità mirate secondo quelle che sono le nostre abitudini ed immaginate se questo potesse accadere nella musica che ascoltiamo tutti i giorni. Forse non ci siamo così lontani.