Estafas con inteligencia artificial: economistas advierten sobre el uso ilegal de su imagen en videos falsos

En un video publicado en redes sociales, avisaron que ellos no ofrecen asesoramiento ni inversiones de esa manera y dijeron que esas promociones no existen.
Por: #BorderPeriodismo

Hablar de inteligencia artificial (IA) implica hoy correr detrás de una tecnología que cambia mientras intentamos entenderla. Pero ese mismo potencial que nos facilita muchas tareas también se utiliza para cometer delitos cada día más sofisticados, más difíciles de detectar y cada vez más frecuentes.

Una de estas amenazas es el uso de deepfakes: videos falsos generados con IA que imitan con precisión la voz y la apariencia de personas reales. Esta tecnología ya es conocida por crear estafas con un nivel de detalle tan convincente que cuesta distinguir lo real de lo falso.

Esta semana, un grupo de economistas reconocidos advirtió en un video publicado en redes sociales que sus imágenes y voces fueron utilizadas sin consentimiento en videos manipulados, donde supuestamente recomiendan inversiones milagrosas o métodos para ganar dinero rápido.

  Estados Unidos: investigan intento de suplantación de Marco Rubio con inteligencia artificial

De la misma manera, aseguraron que esas oportunidades de inversión no existen y que ellos nunca participaron de las mismas. Son fraudes diseñados para engañar, robar información personal y vaciar cuentas bancarias.

Qué hacer si sos víctima o detectás un deepfake

Expertos en ciberseguridad y autoridades judiciales recomiendan principalmente que, ante la duda, no hay que hacer clic, tampoco compartir y si denunciar el contenido.

El fiscal especializado en ciberdelitos, Lucas Moyano, compartió con TN Tecno una serie de recomendaciones para tomar ante estos casos. Una de ellas es recopilar evidencia. Es fundamental guardar toda la información posible para luego hacer la denuncia ante una fiscalía especializada en delitos informáticos.

Algunos ejemplos de evidencia son:

  • Capturas del video, del perfil que lo publicó, de los comentarios y de las interacciones.
  • Enlaces directos a la publicación y a la cuenta.
  • Detalles sobre cómo se difundió: en qué redes, grupos de WhatsApp, Telegram, etc.
  • Datos de contacto que aparecen en el video (teléfonos, correos, enlaces a supuestas plataformas).
  • Pruebas que demuestren que la persona suplantada no participó (como el video original usado para entrenar la IA).

También contactarte con las plataformas digitales para pedir la remoción urgente del contenido fraudulento. Muchas redes sociales tienen formularios específicos para estos casos.

En caso de que creas que tus datos personales fueron expuestos, podés comunicarte con la Dirección Nacional de Protección de Datos Personales para recibir información y asesoramiento para realizar denuncias de delitos relacionados con la privacidad o la protección de tus datos personales: Av. Pte. Gral. Julio A. Roca 710, Piso 5, Ciudad Autónoma de Buenos Aires, Tel.: (54-11) 3988-3968 o escribir y adjuntar la información por email a datospersonales@aaip.gob.ar.

Suscribite a nuestro newsletter
* Recibirás emails de cada publicación semanal
Notas relacionadas
Con tu suscripción al Newsletter de Border Periodismo recibirás emails de cada publicación semanal.
* Recibirás emails de cada publicación semanal