L’Intelligenza Artificiale Creativa renderà obsoleti i compositori e cantautori musicali?

289 Views

0 Comments

4 Novembre 2022

Dalle forze dell’ordine alla medicina, dalle arti visive alle armi, gli effetti dell’IA nel mondo reale si fanno già sentire. È lo stesso con la musica. Da sempre i ricercatori sono al lavoro cercando di semplificare il processo di scrittura delle canzoni o sostituirlo del tutto: Splice’s Similar Sounds utilizza l’intelligenza artificiale per scansionare migliaia di tracce prima di offrire la cassa migliore per completare il tuo rullante; La Producer Suite di Orb genera ritmi, melodie e progressioni di accordi per aiutarti a iniziare una traccia; e servizi come Amper richiedono solo poche parole chiave per creare musica di sottofondo completamente realizzata dall’IA.

Quindi, compositori e cantautori stanno fissando il vuoto della propria obsolescenza? C’è sicuramente una certa ansia giustificata su cosa significheranno questi strumenti per l’industria in generale, tuttavia, per molti artisti, l’IA non è una minaccia ma un’opportunità: un nuovo strumento che potrebbe inaugurare una rinascita musicale paragonabile all’avvento della cultura del campionamento degli anni ’80.

Intelligenza Artificiale Creativa

Stiamo parlando di artisti e sviluppatori che stanno sfruttando il potenziale creativo dell’IA per creare nuovi suoni, nuove forme musicali e nuovi modi di lavorare.

Naturalmente, la musica AI non è un monolito. Vengono adottati vari approcci per raggiungere una serie diversificata di obiettivi, ma una cosa in comune a molti dei progetti più innovativi è l’uso di reti neurali artificiali, sistemi informatici la cui architettura è ispirata al cervello umano. Questi a loro volta alimentano algoritmi di deep learning che passano un input, in questo caso l’audio, attraverso strati di rete sequenziali, estraendo progressivamente più informazioni ad ogni passaggio.

Se tutto ciò suona molto nerd e decisamente poco rock’n’roll, lascia che ti presenti DADABOTS. Dal 2017, il duo Zack Zukowski e CJ Carr hanno allenato reti neurali su un inebriante mix di math rock, black metal e punk per generare riff disumani, urla che nessun polmone potrebbe raccogliere e una complessità ritmica infinita. L’approccio di DADABOTS alla musica AI è sia laborioso che creativamente impegnativo: parlando del loro recente ingresso all’annuale AI Song Contest, la coppia ha detto che “trattavano i modelli di intelligenza artificiale come se fossero musicisti diretti dalla nostra immaginazione”. Ogni idea musicale richiedeva la selezione, l’addestramento e la “sintonizzazione” di una rete neurale per generare costantemente trame musicali in uno stile adatto. Anche allora, il duo aveva bisogno di “scavare attraverso centinaia di variazioni per trovare quelle che si adattavano meglio” prima di arrangiare le parti in una DAW tradizionale.

La traccia risultante, Nuns in a Moshpit , è un tour de force delle tecniche di produzione dell’IA. “Abbiamo utilizzato otto diverse famiglie di reti neurali, alcune delle quali sono la nostra nuova ricerca dell’ultimo anno”, affermano i due. “Sono state spese preziose ore di dottorato e ricerca e sviluppo per costruire concetti totalmente nuovi per i modelli di intelligenza artificiale, solo per generare singoli riff di 5 secondi in questa canzone che appaiono solo una volta”.

Poi ci sono artisti come Robin Sloan e Jesse Solomon Clark, il cui progetto musicale, The Cotton Modules, fonde tecnologia all’avanguardia con abitudini lavorative decisamente lo-fi per realizzare il loro album di debutto ambient e stranamente evocativo, Shadow Planet. Utilizzando Jukebox di OpenAI, che attinge da un repertorio di oltre un milione di canzoni per generare musica e voce, la coppia ha iniziato a scambiare idee per le canzoni avanti e indietro tramite cassetta durante la pandemia.

“Ho iniziato creando brevi ‘semi’ musicali”, dice Clark. “Questi possono essere qualsiasi cosa: una progressione armonica, un arpeggio, un drone, una melodia.” Quelle idee iniziali sono state passate a Sloan, che le ha alimentate nell’IA. “Il processo di generazione è estremamente lento”, afferma Sloan. “C’è molto da fare indietro, cancellare, rifare. È piuttosto fastidioso, onestamente, ma lungo la strada, l’IA sta producendo queste melodie e voci strane, meravigliose e totalmente imprevedibili.

Lungi dall’atrofizzare la loro creatività o sminuire il processo di scrittura delle canzoni, la coppia vede l’IA come “il primo di un nuovo tipo di sintetizzatore” e, come qualsiasi strumento, deve essere appreso, padroneggiato e suonato per ottenere risultati stimolanti. “In realtà percepisco ciò che esce dall’IA come materiale profondo”, afferma Clark. “Per me sono milioni di fantasmi dell’umanità, che cantano contemporaneamente. Questo non è “il computer” che fa musica: l’IA si basa su un milione di canzoni, migliaia di ore di musica registrata, esseri umani di talento che lavorano sodo e che cantano a squarciagola. Comporre musica insieme a un piccolo distillato di quel vasto oceano di spirito è fantastico, letteralmente”.

Alla base del lavoro degli artisti ci sono gli stessi produttori di strumenti: gli sviluppatori che costruiscono le basi della musica AI. Uno dei nomi chiave in questo spazio è Yotam Mann, un musicista, costruttore di strumenti e programmatore creativo con sede a New York che è stato coinvolto in molti dei più entusiasmanti progetti musicali AI degli ultimi anni. Avendo precedentemente lavorato presso Google Creative Lab, dove ha contribuito a strumenti deliziosamente idiosincratici come The Infinite Drum Machine e NSynth, nel 2019 Mann ha iniziato a dare il via alle idee con il collega sviluppatore e membro di lunga data della band indie-elettronica Plus/Minus, Chris Deaner.

“Molte persone stavano realizzando algoritmi davvero sorprendenti e nuove tecniche e scrivevano documenti di ricerca”, afferma Mann. “Ma alla fine esisterebbero come interfaccia a riga di comando per un modulo Python. Nessuno stava costruendo per i musicisti”.

Vedendo questo divario tra ricerca accademica e produzione musicale pratica, Mann e Deaner hanno fondato Never Before Heard Sounds nel 2020 con l’obiettivo di rendere la tecnologia accessibile ai musicisti medi, oltre che musicalmente espressiva. Sebbene l’azienda non abbia ancora lanciato un prodotto disponibile al pubblico, potresti aver sentito i loro algoritmi al lavoro nel rivoluzionario progetto Holly+ di Holly Herndon. Utilizzando un modello di intelligenza artificiale addestrato sulla voce di Herndon, lo strumento consente a chiunque di inserire file audio polifonici e trasformarli in un inquietante simulacro della voce del cantante. Si sono persino dilettati con versioni in tempo reale dello stesso processo.

Questo trucco magico aggraffato si ottiene utilizzando ciò che Mann e Deaner chiamano “Trasferimento di stile audio”, che funziona addestrando un modello di intelligenza artificiale su una singola classe di strumenti. “Gli dai da mangiare abbastanza chitarra e impara a riprodurre una chitarra – e poi tutto ciò che può riprodurre è la chitarra”, dice Mann. “Qualsiasi suono che ci metti uscirà come chitarra. Questo è il punto cruciale di come creiamo un modello come questo”.

È un paradigma creativo che apre possibilità allettanti per i produttori di musica. Per quanto i produttori basati su MIDI si siano abituati a stabilire un ritmo o una melodia e quindi modificare i parametri, scorrere i preset o passare a strumenti completamente diversi, Audio Style Transfer porta lo stesso processo di lavoro alle registrazioni audio. Alcuni versi cantati possono diventare un assolo di chitarra e un assolo di chitarra può diventare un coro.

Dati questi primi successi, le aspettative sono alte per il primo progetto su larga scala dell’azienda: una DAW basata su browser potenziata dall’intelligenza artificiale che unisce i loro strumenti di trasferimento dello stile audio con la capacità di separare e campionare singoli steli da file audio. E la “scissione dello stelo” è solo l’inizio, poiché la potenza dell’IA continua a svilupparsi, i dati utilizzabili che possono essere estratti dal suono non faranno che approfondire. Mann e Deaner vedono un futuro in cui l’arte del campionamento assume nuove dimensioni: la gamma dinamica di una performance vocale, il tono di un amato chitarrista, persino l'”atmosfera” difficile da definire di un’iconica sessione di registrazione saranno finalmente aperti per il campionamento e il riutilizzo creativo.

“Tutte queste diverse caratteristiche musicali erano un tempo una grande somma forfettaria chiamata ‘il campione’, ma ora possiamo iniziare a separare tutte queste cose”, afferma Mann.

È difficile non farsi travolgere dall’entusiasmo di coloro che lavorano ai margini tecnologici della musica, ed è facile dimenticare che per ogni azienda che utilizza l’IA per esplorare nuovi territori sonori, ce n’è un’altra per automatizzare interi settori del lavoro di composizione. I brani scritti per la pubblicità – quella che a volte viene chiamata “musica funzionale” – sono spesso visti come i più a rischio per la sostituzione dell’IA, ma questo problema non è solo una preoccupazione per gli scrittori di jingle. Poiché questi servizi di IA continuano a perfezionare i loro algoritmi, non è difficile immaginare una definizione ampliata di “musica funzionale” che vede l’audio per il relax, il sonno, la produttività e l’esercizio fisico come un gioco leale per l’automazione.

Naturalmente, l’instancabile marcia dell’innovazione non si fermerà presto, ma sarebbe insensibile ignorare le valide preoccupazioni dei professionisti della musica. L’industria musicale è sempre stata un modo precario per guadagnarsi da vivere e la prospettiva che il lavoro retribuito venga inghiottito dagli algoritmi non è una cosa da ridere, specialmente quando la maggior parte delle società è lontana dall’offrire qualsiasi tipo di reddito di base universale.

Allo stesso tempo, concentrarsi esclusivamente sui possibili aspetti negativi significa perdere il potenziale davvero fantastico che l’IA ha chiaramente per supportare ed elevare la creatività umana piuttosto che soppiantarla. DADABOTS considera la creazione musicale basata sull’IA meno di un gioco a somma zero e più di diversificazione. “I cantautori e i compositori continueranno a fare le loro cose”, dicono, “ma la musica dell’IA definisce nuovi ruoli”. Questi ruoli spaziano da “scavatori di campioni” che esplorano un oceano di output di intelligenza artificiale per trovare i clip audio perfetti, a ciò che la coppia chiama “interpreti della rete neurale“: un nuovo genere di musica dal vivo basato su modelli generativi e trasferimento di stile audio.

Molte persone nella musica AI stanno cercando di fare lo stesso tipo di musica pop che tutti hanno già sentito. Spero che questa tendenza muoia”, afferma CJ Carr di DADABOTS. “Voglio vedere inventati nuovi generi strani e fantastici, voglio scatenare una rinascita in cui 10 nuovi generi vengono inventati dalle persone ogni giorno e possiamo ascoltarli. Dopo aver creato l’IA musicale più potente del mondo, dobbiamo darla a bambini di 4 anni che ne eserciteranno il potere: cosa faranno? Qualcosa di mai sentito prima“.