- 28 Settembre 2021
- Posted by: Francesca Norcia
- Categoria: Novità
Daddy’s car, chi non la conosce oramai? La prima canzone interamente composta con l’intelligenza artificiale dietro esperimento del Sony Csl Research Laboratory ha fatto da apripista a una lunga serie di sperimentazioni e studi che stanno cambiando il modo di fare musica.
Proprio nel mondo dell’arte l’Intelligenza Artificiale si sta insediando facendo dei passi da gigante, ed in particolare è il linguaggio delle sette note ad essere considerato terreno fertile per ricerche e sperimentazioni.
La musica cambia a suon di software
Dagli anni ’90 ad oggi, l’impatto della rivoluzione digitale ha stravolto le fondamenta del musical business: servizi come Spotify usano algoritmi matematici che analizzano i gusti musicali per proporre agli utenti playlist digitali personalizzate, esistono addirittura programmi che consentono di registrare musica bypassando gli studi di registrazione. Inoltre, non sono pochi i musicisti che ricorrono alla musica elettronica e usano i computer per comporla.
In uno scenario in cui la produzione artistica è già di fatto informatizzata, dobbiamo prepararci al passo successivo che non è più così fantascientifico: la completa digitalizzazione della musica.
Assistiamo infatti alla nascita di numerosi software in grado di comporre musica autonomamente. La Sony ha realizzato Flow Machines, capace di rielaborare gli stili musicali dei brani che gli vengono dati come input. Grazie alla memorizzazione e all’analisi di migliaia di spartiti, il programma ha imparato, ascoltando diversi generi musicali, a produrre autonomamente nuove melodie.
Il ricercatore indipendente CJ Carr ha scoperto ad esempio che modificando gli algoritmi di Machine Learning Lyrebird, inventati per creare voci artificiali iperrealistiche, si possono creare reti neurali capaci di produrre stili musicali estremamente specifici. Ne è nata l’intelligenza artificiale Dadabot, usata dal musicista britannico Reeps One per duettare con una voce virtuale.
Amper Music offre invece strumenti intuitivi per non-musicisti che, grazie a questo esempio di intelligenza artificiale applicata, possono generare musica rapidamente. Al fruitore basta scegliere lo stile, la durata, la struttura del brano e la palette di strumenti. Create your own original music in seconds, riporta l’homepage di Amper, palesando che bastano soli pochi passaggi per creare un brano musicale senza il problema dei diritti d’autore.
A.I. Duet è un altro esperimento che mostra come il computer sia già in grado di rispondere in tempo reale ad una melodia suonata al pianoforte da un musicista, come nella pratica del contrappunto musicale, che consiste nel rispondere a una o più melodie “nota contro nota” combinando più frasi musicali.
Le tecnologie applicate in questo settore sono sempre più varie e le ricerche si fanno ogni giorno più avventurose, spingendosi anche verso la scrittura dei testi.
LyricJam, ad esempio, è il sistema che utilizza l’intelligenza artificiale per generare linee di testo in tempo reale. È stato creato dai membri del Natural Language Processing Lab dell’Università di Waterloo in Canada, impegnati da diversi anni nello studio dei processi di elaborazione del pensiero musicale con l’obiettivo di trasferire abilità ritenute umane alle macchine.
“Oggi vorrei ascoltare una nuova canzone, dalla potenza espressiva pari a Welcome to the jungle dei Guns N’ Roses e la struttura del brano simile a quella di Tick as brick dei Jethro Tull. Il timbro della voce che la canta deve ricordare John Mayall.” Sarà forse questo il futuro della musica, potremmo ordinare un brano nuovo proprio come ordiniamo un panino al fast food?
La produzione musicale del futuro: cosa fa il Machine Learning
Il Machine Learning e le reti neurali stanno effettivamente rivoluzionando la produzione artistica nella sua essenza. In sostanza, si danno in pasto ai computer migliaia di brani di stili musicali differenti che vengono scomposti, analizzati e catalogati per elaborare musiche e canzoni “simili” a quelle prodotte dagli artisti, secondo uno stile musicale specifico. È l’inizio di un fenomeno di automazione della creatività umana che potrebbe rendere molte delle nostre competenze obsolete.
Ma può veramente una macchina sostituire la creatività dell’uomo? Comporre musica significa utilizzare il cervello su più livelli di intelligenza, sensibilità e fantasia. Se nel pensiero creativo si insedia qualcosa di nuovo che va oltre i processi cognitivi – un elemento inaspettato, un insight che si manifesta d’improvviso generando arte – le reti neurali, per quanto deep possano essere, e gli algoritmi più complessi, possono generare canzoni o melodie davvero inedite?
A oggi, il lavoro del team canadese su LyricaJam ha portato alla creazione di un sistema che, addestrato nel tempo, apprende le espressioni musicali degli artisti e genera testi nel loro stile. Mentre un musicista o una band suona musica, il sistema riceve continuamente le clip audio grezze, che la rete neurale elabora per generare nuove linee di testo.
Secondo gli studiosi del progetto, lo scopo del sistema non è scrivere una canzone al posto dell’artista, bensì supportarlo nella propria espressione creativa. Il sistema genera linee di testo con nuove metafore ed espressioni, guidando potenzialmente gli artisti in direzioni creative che non hanno mai esplorato prima. “This system supports songwriting process,” dichiarano gli studiosi del team canadese.
Secondo le parole di molti scienziati infatti, l’intelligenza artificiale non ha come obiettivo quello di sostituire i musicisti in carne e ossa, ma quello di aiutare i compositori (magari in pieno blocco dell’artista) a inventare melodie e completare brani.
Che ci piaccia o no, è innegabile che dobbiamo prepararci ad accettare un cambio di prospettiva: l’artista non sarà più l’unico proprietario delle idee su cui si costruiscono le canzoni.
Ma può una musica o un testo generato artificialmente suscitare le stesse emozioni di un brano scritto da una persona che porta nella narrazione esperienze vissute, storie o meta-testi?
Un compositore artificiale potrà creare nuove sinfonie sullo stile di Mozart, ma chissà se potrà, ad esempio, raccontare emozioni di vita come fa De Andrè in Amico Fragile o Verranno a chiederti del nostro amore; o magari emulare il livello di storytelling di North Country Blues di Bob Dylan.
L’Ai potrà pure creare canzoni in grado di emozionarci, ma cosa sarà in grado di raccontarci per davvero?
Se hai bisogno di sapere come l’AI rivoluzionerà le nostre vite o il tuo business, contattaci qui.