Foto: ijeab/iStock
Em uma reviravolta que parece roteiro de ficção científica, a indústria musical está enfrentando um esquema bilionário de fraudes utilizando inteligência artificial. As plataformas de streaming estão sendo inundadas por músicas criadas inteiramente por algoritmos, e o objetivo final quase nunca é a arte, mas sim o roubo de dinheiro.
Dados internos da plataforma Deezer, divulgados em maio de 2026, revelam a escala assustadora do fenômeno. A empresa reporta receber 75 mil faixas geradas por IA por dia, o que representa 44% de todos os uploads diários na plataforma. Isso equivale a mais de dois milhões de faixas falsas por mês.
Para dimensionar: a Suno, uma das principais ferramentas de geração de música por IA, produz sete milhões de músicas por dia, e isso é equivalente a todo o catálogo histórico do Spotify a cada duas semanas.
85% das reproduções de IA são fraudulentas
De acordo com a Deezer, até 85% das reproduções geradas por essas faixas artificiais são fraudulentas. A Apple Music também sentiu o impacto. Oliver Schusser, vice-presidente da plataforma, confirmou que a empresa desmonetizou dois bilhões de reproduções fraudulentas somente em 2025, o que representa quase US$ 17 milhões em royalties que teriam sido retirados de artistas legítimos.
O modus operandi evoluiu. Antigamente, os fraudadores carregavam um pequeno número de faixas e usavam bots para reproduzi-las repetidamente, gerando picos óbvios que acionavam a detecção.
Agora, a estratégia é inversa: usar geradores de IA para inundar as plataformas com milhões de faixas e reproduzir cada uma delas apenas alguns milhares de vezes (o suficiente para gerar royalties, mas não o bastante para acionar sistemas de detecção ajustados para alto volume). O resultado é uma fraude discreta, mas massiva.
Artistas reais estão sendo prejudicados
A fraude não se limita a roubar royalties. Há casos documentados de artistas tendo suas vozes clonadas por IA. Murphy Campbell, musicista do grupo folk Apalaches, descobriu em janeiro de 2026 que havia músicas em seu perfil do Spotify que não havia gravado: sua voz foi clonada, suas canções processadas em um estilo diferente.
Pra piorar, a distribuidora responsável pelo upload das faixas falsas (Vydia) entrou com ações judiciais por violações de direitos autorais contra os vídeos originais de Campbell no YouTube. O sistema automático do YouTube processou as ações e Campbell perdeu a monetização de seu próprio conteúdo.
A falta de verificação na camada de upload é apontada como uma das principais vulnerabilidades do sistema. Paul Bender, músico e membro da banda Hiatus Kaiyote, realizou um teste que chamou de “Operação Despejo do Palhaço” (“Operation Clown Dump”, no original): gerou deliberadamente músicas de baixíssima qualidade com IA e as enviou para distribuidores. A taxa de sucesso foi de 100%.
O que as plataformas estão fazendo
Deezer: Foi a primeira plataforma a lançar uma ferramenta de detecção de IA, a etiquetar músicas geradas artificialmente e a bloqueá-las de recomendações algorítmicas. Agora, a empresa está licenciando sua tecnologia de detecção para outras plataformas.
Apple Music: Introduziu as “Transparency Tags” (etiquetas de transparência) para sinalizar conteúdo gerado por IA, embora o sistema ainda seja opcional.
Spotify: Lançou um selo de verificação “Verified by Spotify” para garantir a autenticidade dos perfis de artista, mas também depende da declaração voluntária de distribuidores e selos.
Qobuz: começou a remover completamente faixas geradas por IA que pareçam ter sido subidas de forma fraudulenta.
O que esperar
O problema está longe de ser resolvido. Enquanto as plataformas precisam equilibrar transparência, direitos autorais e inovação, os fraudadores continuam a usar IA para criar novas maneiras de explorar o sistema. A indústria musical está correndo atrás do prejuízo e a tecnologia que criou o problema pode ser a única capaz de resolvê-lo.







Deixe um comentário