Publicidad
  • Dólar (TRM)$ 3.926,02
  • Euro$ 4.172,56
  • MSCI COLCAP1.366,61
  • Petróleo (Brent)US$ 89,5
  • Petróleo (WTI)US$ 83,85
  • Café (lb.)US$ 2,24
  • Oro (oz.)US$ 2.347,20
  • UVR$ 365,74
  • DTF E.A. (90d)10,49%
Noticias

Así estarían extorsionando a personas con inteligencia artificial: hay alerta en el país

Expertos aseguran que la extorsión se podría ejecutar con estos sofisticados métodos para suplantar a personas, por ejemplo, en actos pornográficos

Publicidad
Así estarían extorsionando a personas con inteligencia artificial: hay alerta en el país

NotiCentro1 CM& conoció un llamado de alerta de las autoridades en Colombia, que advierten sobre el presunto uso de inteligencia artificial al que estarían recurriendo actores criminales para cometer delitos tales como la extorsión, y por los cuales se ha aumentado la preocupación por la inseguridad en el país.

Expertos aseguran que la extorsión se podría ejecutar con estos sofisticados métodos, en los que pueden suplantar voces de familiares para asegurar hechos delictivos de los que serían víctimas, como secuestros, y por los cuales podrían exigir altas sumas de dinero.

“Imagínese usted compartiendo un video, una imagen, un video con su familia, y donde logran clonarle la voz y alterarla su imagen y colocarla en un cuerpo haciendo algunas actividades […] especialmente lo que buscan estos actores criminales es contenidos eróticos de actividades sexuales.“, aseguró para este noticiero el director de Antisecuestro y Antiextorsión del Gaula de la Policía, coronel Élver Vicente Alfonso.

También puedes leer: Hombre agredió a empleada de bar en Cali, quien se defendió con gritos de alerta a vecinos

“Cuando los delincuentes clonan la voz de una víctima se comunican con los familiares para extorsionar o una modalidad más avanzada, la estafa´Tío Tío’, donde llaman y dicen que el familiar tuvo un accidente, está preso, y su familia es obligada a desembolsar un dinero para rescatar a su familiar que supuestamente está secuestrado.”, aseguró el experto David Pereira, quien es director general de Security Professionals.

El experto también asegura que la llamada ‘IA’ se estaría utilizando para suplantar a personas en actos pornográficas, y puso como ejemplo un caso en el que se vio involucrada la reconocida cantante de pop Taylor Swift.

“Lo que se llaman deep fakes, que normalmente permite colocar la cara de una persona en el cuerpo de otra, o para colocar la cara de una persona en un video de contenido explícito o sexual y de esa forma extorsionar.”, dice Pereira.

El coronel Alfonso señala que hay un incremento del 9 % en la extorsión del país, y que el 75% de los casos denunciados no han logrado resolverse.

Temas Relacionados:

Publicidad
Síguenos en nuestro canal de WhatsAppSíguenos en Google News