Loading...

  • Mon, Nov 2025

Rafa Nadal lanza advertencia contra uso fraudulento de su imagen y voz en vídeos hechos con IA

Rafa Nadal lanza advertencia contra uso fraudulento de su imagen y voz en vídeos hechos con IA

El extenista español Rafael Nadal alertó públicamente a sus seguidores sobre la circulación de vídeos falsos generados con inteligencia artificial en los cuales se imita su voz e imagen para promover supuestos consejos o productos asociados a inversiones. Nadal advierte que esos contenidos son “publicidad engañosa” y aclara que no respalda ninguno de esos mensajes.


 

Rafael Nadal, quien recientemente puso fin a su carrera profesional con una trayectoria que lo señala como uno de los grandes del tenis, ha tomado la palabra con un mensaje claro y urgente. A través de sus redes sociales, informó que él y su equipo han detectado vídeos falsos en circulación que reproducen —mediante tecnología de inteligencia artificial— su imagen y voz, en los que da consejos financieros y proyectos de inversión que jamás han sido aprobados o respaldados por él. 

 

“Comparto este mensaje de alerta, algo poco habitual en mis redes, pero necesario. Hemos detectado junto a mi equipo que circulan en algunas plataformas vídeos falsos generados por inteligencia artificial, en los que aparece una figura que imita mi imagen y voz.” 
“En estos vídeos se me atribuyen consejos o propuestas de inversión que no provienen de mí. Se trata de publicidad engañosa. Por favor, tened cuidado: yo no he realizado ni respaldo este tipo de mensajes.” 

Para Nadal, no se trata de una mera formalidad: el riesgo es real. Señala que con el avance de la inteligencia artificial, la habilidad para manipular vídeos y audios ha crecido de modo explosivo, lo que ha dejado en manos equivocadas herramientas poderosas para crear contenidos engañosos. Su advertencia es también un llamado a la sociedad, pues instó a sus seguidores a ejercer pensamiento crítico frente a lo que consumen en redes y plataformas digitales. 

En su mensaje, Nadal también abordó los aspectos positivos de la tecnología, pero con cautela:

“Creo que la innovación siempre es positiva cuando se pone al servicio de las personas, pero debemos ser conscientes de sus riesgos y actuar con sentido crítico.” 

 

q1r1elz3qib6ob4np3wh
 

Un problema cada vez más común

Este tipo de estafas no afecta solo a deportistas. Numerosas figuras públicas han sido blanco del uso indebido de su imagen o voz en campañas digitales fraudulentas: músicos, empresarios, celebridades políticas, entre otros. 

Expertos en ciberseguridad advierten que los “deepfakes” y otras técnicas de manipulación visual y sonora avanzan rápido, y que muchas campañas fraudulentas se nutren de la confianza que la gente deposita en las personalidades públicas. Una voz reconocible o un rostro famoso, bien recreado por IA, puede lograr convencer a quienes no se detienen a verificar. 

La recomendación recurrente de especialistas es: desconfiar de anuncios que prometan retornos extraordinarios, revisar si las fuentes son oficiales, y usar herramientas o servicios que detecten contenido manipulado.

 

 

Con información e imágenes de:

UnoTV

Diario AS

Grupo Milenio