Publicidad

TELAM

Alerta en la red: la inteligencia artificial en el núcleo de las estafas digitales

La IA es utilizada por los ciberdelincuentes en el diseño de estafas cada vez más sofisticadas. Alerta sobre el chatGPT y sus gemelos malignos.

POR REDACCIÓN

03 de abril de 2024

La inteligencia artificial se encuentra en el centro de las noticias que abarcan el mercado digital y sus avances. Con toda su fuerza y sus visibles ventajas en los campos científicos y médicos, entre otros, las tecnologías inteligentes arrastran discusiones  sobre su impacto en el área informática. Los peligros de innovaciones tan significativas como el chatGPT no tardaron en suscitar.

El fácil acceso la población a los medios digitales profundiza la preocupación por  las estafas con inteligencia artificial. Conceptos como la ciberdelincuencia aparecieron en el vocabulario común con el advenimiento de la era digital hace ya más de una década. No obstante, la refinación de las tecnologías en el campo informático catapultó el índice de delitos digitales.

Publicidad

Hoy en día, recibimos información constante sobre cómo prevenir estafas virtuales. Los delincuentes sofisticaron sus maniobras a tal nivel que es realmente difícil distinguir cuándo se trata de un engaño. Los sitios web nos alertan sobre posibles fraudes y nos invitan a tomar recaudos. Comienza a nacer una educación en torno a las amenazas de un mundo digital que ya forma parte de nuestro cotidiano.

El lanzamiento del chatGPT fue un antes y un después. Hasta entonces los avances en inteligencia artificial estaban relegados a áreas de profesionalismo más específicas. La población se enteraba de las maravillas de la IA a través de noticias, estudios o escenarios de RV. El chatGPT democratizó la experiencia y, repentinamente, la sociedad tuvo acceso instantáneo a una interacción directa con un modelo de IA regenerativa.

El chatGPT está preparado para no producir softwares maliciosos, mejor conocidos como malware. No obstante, los criminales han replicado la tecnología del ChatGPT para diseñar sus propias herramientas embaucadoras. En 2023, salieron a la luz los gemelos malignos del chatGPT; WormGPT y FraudGPT. Se trata de sistemas similares que propagan malware, crean pornografía no consentida y campañas de desinformación, entre otras acciones maliciosas.

El chatGPT fue un boom y trajo ambivalencias; lados oscuros y luminosos propios de las nuevas tecnologías y su impacto en una sociedad sedienta de cambios e innovación. Desde ya que su aparición puede ser una herramienta clave para generar contenidos útiles y/o acelerar procesos de trabajo. Sin embargo, no es la herramienta lo que consterna a gran escala sino el uso que se le dé.

Publicidad

 

Tratamos los teléfonos como si fueran una extensión de nuestro cuerpo y concedemos toda nuestra información personal e íntima a las redes sociales sin tener plena conciencia de hacia dónde se dirigen datos tan delicados. Pero comenzamos a sentir las consecuencias; cada vez hay más personas que declaran haber sufrido estafas digitales que, de la mano de la IA, son difíciles de detectar.

 

Se trata de víctimas que creen convencidos reconocer la voz de un supuesto familiar que llama desesperado luego de algún percance y pide ayuda económica, sin saber que, en realidad, se trata de tecnologías de clonación de voz manipuladas para extorsionar a quien atiende.  

Este tipo de estafa no es un delito totalmente nuevo. Ya existía la figura del delincuente que llamaba simulando ser un familiar. Sin embargo, el llamado era hecho por una persona real. En las estafas por clonación de voz, las víctimas dan testimonios escalofriantes en los que aseguran que la voz era exactamente la misma que la de su familiar.

 

Otro tipo de estafa que cobra cada vez más víctimas es la denominada pig-butchering. En este caso los criminales utilizan la ingeniería social para manipular a la víctima con quien chatean por alguna app. Ganan su confianza y luego las persuaden para que realicen inversiones en criptomonedas. Acto seguido, desaparecen del mapa virtual dejando a la víctima financiera y emocionalmente corrompida.

Los delincuentes utilizan IA para emplear deepfakes; contenidos audiovisuales que suplantan la imagen y voz de otras personas y así armar un perfil falso. Asimismo, utilizan redacciones con inteligencia artificial como LoveGPT. Se trata de una herramienta diseñada específicamente para engañar en citas con el objetivo de que la víctima sienta empatía y se construya un vínculo virtual basado en la confianza.   

 

Los “gemelos maliciosos” del chatGPT y el agravado aumento de estafas han alertado sobre la potencia negativa de la tecnología cuando es abordada con intenciones fraudulentas. Se levanta el telón sobre preocupaciones más globales, como el uso de la IA en reemplazo de puestos de trabajo, la creación de armas químicas o su injerencia en el plano militar.

Aunque ya comienzan a avistarse nuevas regulaciones sobre el desarrollo de inteligencia artificial, la incertidumbre impera. Los modos de uso de las tecnologías regenerativas forman parte de una discusión ética que hoy se planta en todo el mundo. Su engranaje tecnológico aplicado a los fraudes virtuales podría ser solo la punta del iceberg.

    Publicidad
    Más Leídas
    Más Leídas
    Publicidad

    ÚLTIMAS NOTICIAS