La combinación explosiva de inteligencia artificial, bots y plataformas de streaming ha dejado de ser una hipótesis para convertirse en un problema muy real para la industria musical. Un productor de Carolina del Norte ha protagonizado el que ya se considera el primer gran caso penal de fraude musical con IA en servicios como Spotify, Apple Music, Amazon Music y YouTube Music, y el impacto del caso se está siguiendo con lupa también en España y el resto de Europa.
En un modelo donde las regalías se reparten en función de las reproducciones, inflar escuchas de manera artificial significa, de facto, quitar dinero de los bolsillos de artistas reales. El caso ha puesto en evidencia cómo un solo operador, apoyado en software generativo y una granja de cuentas falsas, puede desviar millones de dólares del sistema sin que, durante años, nadie se dé cuenta.
Quién es Michael Smith y cómo montó el fraude
Michael Smith, músico y productor de Carolina del Norte, se ha declarado culpable ante un tribunal federal de Nueva York de haber orquestado un complejo esquema de fraude digital en el streaming musical. Entre 2017 y 2024 convirtió la IA en su fábrica personal de canciones y a los bots en su público cautivo, todo ello con un único objetivo: maximizar el cobro de regalías.
Según los documentos judiciales y la investigación del FBI, Smith generó cientos de miles de pistas musicales con herramientas de inteligencia artificial. Estas canciones, muchas de ellas piezas de música ambiental o de fondo difíciles de distinguir de producciones humanas, se subían sistemáticamente a catálogos de Spotify, Apple Music, Amazon Music y YouTube Music, bajo alias y sellos poco conocidos.
La parte decisiva del plan no estaba solo en la creación de música, sino en el sistema que simulaba a los oyentes. Smith montó una red de miles de cuentas automatizadas, distribuidas por distintos servicios en la nube y asociadas a suscripciones de pago, que reproducían esas canciones de forma continua. El sistema operaba las 24 horas del día, repartiendo las escuchas entre un catálogo gigantesco para pasar desapercibido.
Los cálculos de la Fiscalía del Distrito Sur de Nueva York hablan de hasta 661.000 reproducciones diarias simuladas, diseminadas entre cientos de miles de temas. Este reparto minucioso de la actividad consiguió que, durante años, las plataformas no activaran sus alarmas internas, al no detectar picos extremos en pistas concretas.

Millones en regalías robadas a artistas reales
Este entramado no era un simple experimento con la tecnología: generó un beneficio económico enorme. La justicia estadounidense calcula que Smith llegó a ingresar más de 8 millones de dólares en regalías, con estimaciones que sitúan sus ingresos en torno al millón de dólares anuales, pese a que ningún oyente humano estaba realmente detrás de la mayoría de esas reproducciones.
Las plataformas de streaming reparten un fondo común procedente de suscripciones y publicidad en función del porcentaje de escuchas que acumula cada canción. Es decir, el dinero que entra cada mes se divide según el peso que tiene cada catálogo en el total de reproducciones. Inflar artificialmente las cifras de un conjunto de pistas generadas por IA supone, en la práctica, robar una parte de esos ingresos a músicos y compositores que sí tienen audiencia real.
Fiscales como Damian Williams han subrayado precisamente este punto: aunque el catálogo de Smith se apoyaba en canciones artificiales y oyentes ficticios, los millones desviados salieron directamente del bolsillo de titulares de derechos legítimos, desde artistas independientes hasta grandes discográficas. El caso rompe con la percepción de que el fraude de streaming es una simple trampa de marketing sin víctimas claras.
Además, la investigación detalla que Smith no actuó completamente solo. Colaboró con empresas especializadas en software de creación musical, con las que pactó compartir una parte de los beneficios mensuales obtenidos con las reproducciones fraudulentas. Los documentos no citan marcas concretas, pero medios especializados han vinculado parte del catálogo con herramientas comerciales de generación musical que hoy cualquiera puede utilizar desde un ordenador doméstico.
El golpe económico no se limita a los millones que acabaron en manos del estafador. Al tratarse de un fraude masivo y sostenido en el tiempo, distorsionó las métricas de popularidad, las listas de reproducción y las recomendaciones algorítmicas, desplazando a artistas reales de espacios de visibilidad clave en las plataformas.
Cómo se descubrió el esquema: datos, anomalías y cooperación
El desmantelamiento del fraude no fue casualidad, sino fruto de un cruce de datos y de la colaboración entre instituciones. El Mechanical Licensing Collective (MLC), organismo encargado de gestionar determinados derechos en el entorno digital estadounidense, fue quien detectó primero patrones de escucha inusuales concentrados en un conjunto de obras aparentemente poco relevantes.
Estos patrones —altos volúmenes de reproducciones repartidos de forma peculiar, horarios de escucha poco creíbles, coincidencias en dispositivos y localizaciones— llevaron al MLC a alertar a las autoridades. A partir de ahí, la Unidad de Fraudes Complejos y Delitos Cibernéticos de la Fiscalía del Distrito Sur de Nueva York y el FBI comenzaron a reconstruir el recorrido del dinero y la infraestructura técnica que había detrás.
Las pesquisas revelaron una red de servidores en la nube, proxies y cuentas falsas destinada únicamente a disparar reproducciones. La rastreabilidad de los pagos de regalías fue clave para vincular esos flujos de ingresos con entidades controladas por Smith y sus colaboradores. Con el caso ya encarrilado, el productor optó por declararse culpable de conspiración para cometer fraude electrónico, fraude electrónico y conspiración para blanqueo de capitales.
En su comparecencia ante el juez federal John G. Koeltl, Smith reconoció que tanto las canciones como los oyentes eran ficticios, pero que el dinero ingresado era muy real. La Fiscalía ha solicitado una pena de hasta cinco años de prisión y el decomiso de más de 8,09 millones de dólares, además de otros bienes vinculados al esquema.
Para las autoridades, este caso supone un punto de inflexión en la persecución del fraude por streaming. Lo que durante años se había tratado como un problema de click farms y servicios dudosos de “promoción” de artistas pasa a encuadrarse claramente en la categoría de delitos económicos graves, con responsabilidad penal para quienes organizan estas redes.

Spotify, Apple Music y los precedentes de fraude con IA
El caso Smith encaja en una tendencia que las plataformas ya venían observando. En 2023, por ejemplo, Spotify eliminó decenas de miles de pistas generadas por IA de la startup Boomy, tras detectar patrones de reproducciones automáticas diseñados para subir de forma artificial las métricas de determinados usuarios. Fue uno de los primeros avisos claros de que el problema iba mucho más allá de simples reproducciones “de cortesía”.
Tampoco se trata solo de inflar números. Iniciativas como la de la organización Syntax Error, que llegó a subir temas generados por software imitando a artistas fallecidos, han puesto sobre la mesa otro frente: la suplantación de identidad y el uso no autorizado de voces y estilos para monetizar el legado de músicos sin su consentimiento ni el de sus herederos.
Ante este panorama, compañías como Deezer y Apple han anunciado el desarrollo de etiquetas para música creada con IA y el despliegue de sistemas internos pensados para monitorizar actividades sospechosas. Estos sistemas combinan el análisis de big data con algoritmos de detección de anomalías: picos repentinos de escuchas, concentraciones geográficas absurdas o comportamientos repetitivos de usuarios que no encajan con el consumo real.
En paralelo, muchas plataformas están revisando sus modelos de recomendación y las reglas de inclusión en listas editoriales para evitar que catálogos sintéticos de baja calidad, diseñados solo para generar unos céntimos por reproducción, acaben colonizando los espacios más visibles del servicio. La idea es filtrar no solo el fraude claro, sino también el aluvión de contenido que, sin ser ilegal, amenaza con saturar los catálogos.
El precedente que deja el caso estadounidense presiona a gigantes como Spotify, Apple Music, Amazon Music y YouTube Music para reforzar todavía más sus mecanismos de control. No se trata solo de una cuestión de imagen: a partir de ahora, las autoridades pueden exigirles más diligencia a la hora de detectar y frenar esquemas similares, especialmente cuando afectan a creadores en múltiples países.
Un problema global con reflejo en España y Europa
Aunque el juicio se haya celebrado en Estados Unidos, las consecuencias del fraude traspasan fronteras. Las regalías que se reparten en las grandes plataformas tienen en cuenta escuchas de todo el mundo, de modo que cualquier manipulación masiva impacta también en lo que cobran los artistas en España y el resto de Europa.
La Unión Europea lleva tiempo moviendo ficha en este terreno. Instrumentos como la Digital Services Act (DSA) buscan reforzar la responsabilidad de las plataformas en la detección y retirada de actividades ilícitas, mientras que el futuro Reglamento Europeo de Inteligencia Artificial apunta a exigir mayor transparencia sobre el uso de sistemas automatizados, incluyendo aquellos que generan contenido o gestionan decisiones algorítmicas.
En el ámbito musical, organizaciones de gestión colectiva y asociaciones de la industria en países como España han insistido en la importancia de trazar con precisión el origen de las reproducciones, asignar identificadores claros a la música generada por IA y diferenciarla, al menos a efectos de información y remuneración, de las obras compuestas por humanos. El objetivo no es frenar la innovación, sino impedir que el contenido sintético acabe comiéndose una parte desproporcionada del pastel de las regalías.
Para los creadores españoles, especialmente autores, intérpretes y sellos independientes, la preocupación es doble. Por un lado, temen la competencia desleal de catálogos producidos a coste casi cero y subidos en masa. Por otro, existe el riesgo de que, en respuesta al aumento del fraude, las plataformas introduzcan filtros, umbrales de pago o requisitos de verificación tan exigentes que terminen dificultando la vida también a quienes trabajan de forma legítima.
En este contexto, el caso Smith funciona como una especie de aviso anticipado para el mercado europeo: si no se refuerzan los controles y no se coordinan mejor los marcos regulatorios, la música generada por IA combinada con bots puede convertirse en una vía sencilla para desviar ingresos en cualquier territorio, España incluida.

Música con IA a escala industrial: el caldo de cultivo perfecto
Lo que ha hecho posible el fraude no es solo la picaresca individual, sino el contexto tecnológico actual. Plataformas de generación musical como Suno y otras herramientas similares permiten a cualquier persona crear canciones completas en cuestión de segundos, con letra, armonía y arreglos listos para subir a un servicio de streaming, sin necesidad de conocimientos musicales.
Según datos citados por servicios de streaming y medios especializados, cada día llegan a los catálogos decenas de miles de pistas creadas íntegramente por IA. Algunas estimaciones apuntan a capacidades de producción que se cuentan en millones de canciones diarias, lo que en pocas semanas podría igualar o superar el catálogo histórico de muchos servicios.
La frontera entre lo humano y lo generado por algoritmos es cada vez más difusa. Estudios difundidos por plataformas como Deezer, y recogidos por publicaciones como Billboard, señalan que alrededor del 97% de los oyentes no es capaz de distinguir si una pieza musical procede de una persona o de un sistema automatizado. Esto facilita que las pistas generadas por IA se mezclen sin problema con el resto, compitiendo por la atención y por las regalías.
Incluso dentro del sector tecnológico hay voces de alerta. Directivos de empresas de IA musical como Paul Sinclair, de Suno, han admitido públicamente que están divididos entre el entusiasmo por el potencial creativo y la inquietud por el futuro de los músicos profesionales. La duda de fondo es clara: ¿seguirá siendo viable vivir de la música cuando millones de temas generados en segundos compiten por un fondo de pago que no crece al mismo ritmo?
En este escenario, la música generada por IA se convierte en el terreno ideal para fraudes como el de Smith. Un océano de canciones casi indistinguibles entre sí facilita ocultar patrones artificiales de escucha y hace mucho más complejo, para las plataformas, separar la actividad legítima de la ingeniería pura y dura para sacar dinero del sistema.
La respuesta del mercado: más controles, más datos y nuevas oportunidades
El precedente judicial ha espoleado la reacción tanto de las plataformas como de la industria y los reguladores. Servicios de streaming, agregadores y discográficas están reforzando sus equipos de análisis de datos y sistemas antifraude, apoyándose en modelos de aprendizaje automático que identifiquen comportamientos anómalos antes de que el daño sea irreparable.
Entre las medidas que se barajan figuran limitar la cantidad de música que una sola cuenta puede subir en un periodo concreto, exigir verificaciones adicionales a ciertos tipos de perfiles o revisar manualmente catálogos que generen ingresos desproporcionados en muy poco tiempo. Son decisiones delicadas, porque un filtro demasiado agresivo puede bloquear a artistas reales que logren un éxito repentino.
Al mismo tiempo, se están explorando modelos alternativos de reparto, como los sistemas user-centric, en los que lo que paga cada suscriptor se reparte solo entre los artistas que realmente escucha, en lugar de entrar en una bolsa común. Aunque este enfoque no elimina el fraude de bots —también podría simular oyentes concretos—, sí reduce algunos incentivos actuales para lanzar catálogos masivos orientados a rapiñar pequeñas fracciones de un fondo global.
Para el sector tecnológico, todo este movimiento abre una nueva línea de negocio. Surgen oportunidades para startups y soluciones SaaS especializadas en detección proactiva de anomalías en streams, pagos y metadatos, orientadas tanto a plataformas como a sellos y sociedades de gestión. En Europa, donde el cumplimiento normativo es especialmente estricto, no es descartable que aparezca una nueva generación de empresas dedicadas a auditar el tráfico musical digital.
Más allá del negocio, el reto es encontrar un punto de equilibrio razonable: aprovechar el potencial creativo de la inteligencia artificial sin dejar que se convierta en una herramienta de ingeniería financiera a costa de los músicos. Sin una respuesta coordinada entre industria, plataformas y reguladores, la confianza en el modelo de streaming podría resentirse seriamente, algo que afectaría tanto a los gigantes del sector como a los artistas que dependen de estos ingresos para seguir trabajando.
La historia de Michael Smith funciona ya como un caso de libro sobre hasta dónde puede llegar el fraude musical con IA en plataformas como Spotify, Apple Music o YouTube Music. Un solo productor, apoyado en catálogos creados por algoritmos y granjas de bots, ha demostrado que es posible desviar millones de un sistema pensado para remunerar el talento. Que este golpe sirva de advertencia —en Estados Unidos, en España y en toda Europa— dependerá ahora de la rapidez con la que se refuercen las defensas técnicas, se ajusten las reglas del juego y se proteja, de manera efectiva, el valor de la creación musical humana.
