Un nuovo studio Deezer/Ipsos rivela che l’orecchio umano non distingue più la musica generata dall’IA da quella creata dall’essere umano. E ciò non è bello, anzi…
C’è una dissonanza cognitiva affascinante e inquietante che permea l’attuale panorama musicale. Se chiedete a un appassionato di musica se saprebbe riconoscere una canzone creata da un modello di IA generativa, vi risponderà quasi certamente di sì. Eppure, la realtà dei dati smentisce clamorosamente questa sicurezza.
Un recente studio-test condotto da Ipsos per conto della piattaforma di streaming audio Deezer è infatti una fotografia impietosa della nostra percezione sensoriale nell’era digitale. Su un campione di 9.000 ascoltatori, ai quali sono stati fatti ascoltare tre brani di cui uno realizzato interamente tramite IA generativa, solo il 3% è infatti riuscito a identificare correttamente la traccia sintetica all’interno di un blind test.
Una volta scoperto quale fosse il brano creato dall’IA, il 71% dei partecipanti si è dichiarato sorpreso, ma il dato più rilevante per chi lavora nella psicologia del consumo è quel 52% che ha provato un profondo disagio. È la realizzazione che l’artefatto culturale che consumiamo più intimamente (la musica) può essere simulato alla perfezione, scardinando il patto di fiducia implicito tra creatore e fruitore. Inoltre, il 55% degli utenti approccia l’IA con curiosità, ma solo il 19% associa a questa tecnologia il concetto di “fiducia”.

MA perché è così importante questo fenomeno? Il primo dato per certi versi sconvolgente è che l’infrastruttura dello streaming è sotto assedio. Deezer riporta infatti un afflusso di 50.000 brani generati dall’IA ogni giorno (il 34% del totale giornaliero di nuove immissioni), anche se a livello di consumo effettivo (stream reali) queste tracce coprono solo lo 0.5%.
Un dislivello che si spiega con il fatto che gran parte di questi ascolti viene flaggata come fraudolenta e rimossa dalle playlist editoriali. È un gioco del gatto col topo dove piattaforme come Deezer cercano di arginare un’onda di piena che minaccia di diluire la visibilità degli artisti umani.
Di fronte a questo fenomeno, l’80% degli utenti esige un’etichettatura inequivocabile (watermarking visibile), il 73% vuole trasparenza sui sistemi di raccomandazione e il 52% chiede una segregazione delle classifiche (una per artisti umani e una per l’IA).
Nonostante le difese immunitarie delle piattaforme, l’IA sta già bucando il sistema, infiltrandosi nelle chart più prestigiose grazie a meccanismi di distribuzione sempre più accessibili. Servizi come DistroKid, Amuse e CDBaby fungono, spesso involontariamente, da canali di scolo per questa produzione massiva.

Il caso dei brani di Breaking Rust (Walk My Walk e Livin’ on Borrowed Time) è emblematico. Non stiamo parlando di esperimenti di nicchia, ma di tracce che hanno scalato la classifica Spotify U.S. Viral 50 e dominato le chart country di Billboard. Ancora più surreale è il caso olandese del brano We Say No, No, No to an Asylum Center, arrivato alla vetta della Viral 50 globale prima di essere epurato dalle piattaforme.
Dietro questi successi non c’è sempre un intento artistico, ma spesso un modello di business spregiudicato promosso da “guru” della finanza online, che vendono la musica generativa come fonte di reddito passivo. L’artista noto come Broken Veteran difende l’IA come strumento di democratizzazione per chi “ha qualcosa da dire ma manca di training musicale”, ma il confine tra accessibilità e saturazione opportunistica è sempre più labile.
La reazione dell’industria discografica non è stata monolitica. Da un lato, c’è il pragmatismo corporate, con Universal Music Group (UMG) che, dopo aver combattuto legalmente startup IA come Udio, ha scelto la via dell’assimilazione. L’annuncio di una piattaforma commerciale co-gestita per musica IA su licenza, prevista per il 2026, segna infatti il passaggio dalla fase di “contenimento” a quella di “monetizzazione”. Le major hanno insomma compreso che non possono fermare la tecnologia e quindi cercano di possedere l’infrastruttura che la governa.

Dall’altro lato, la resistenza creativa si fa concettuale. Il progetto Is This What We Want? rappresenta una forma di protesta quasi situazionista. Artisti del calibro di Paul McCartney, Kate Bush e Hans Zimmer non stanno combattendo il rumore con altro rumore, ma con il silenzio. La traccia “muta” di McCartney è una provocazione potente: in un mondo saturato da algoritmi che generano terabyte di suono al secondo, il silenzio e l’intenzione umana diventano le uniche merci non replicabili.
Tornando al test, la metà degli intervistati (51%) prevede che l’IA sarà un attore protagonista del prossimo decennio, ma il 64% teme che questo porterà a una sterilità creativa diffusa. L’IA generativa applicata all’audio promette certamente una riduzione delle barriere all’ingresso (e ciò può essere positivo per molti aspiranti artisti), ma il rischio è che stia costruendo un labirinto di specchi in cui l’ascoltatore non sa più chi, o cosa, stia applaudendo.
© 2025, MBEditore – TPFF srl. Riproduzione riservata.























