Skip to content Skip to footer

Peligros del mal uso de inteligencia artificial

Corea del Norte y los trabajos fantasmas

Hablemos de los peligros de la inteligencia artificial. Era una mañana cualquiera en Silicon Valley. Una gran empresa de tecnología revisaba aplicaciones para un puesto de programador remoto. Entre los cientos de aspirantes apareció un candidato con un currículum impecable: años de experiencia, dominio de varios lenguajes de programación y un perfil profesional en perfecto inglés. La decisión parecía sencilla: contratarlo.

Lo que nadie en esa empresa sabía era que aquel candidato no existía.

El engaño digital

Investigaciones recientes revelaron cómo grupos vinculados a Corea del Norte han utilizado chatbots de inteligencia artificial para crear identidades falsas. No eran simples perfiles inventados: tenían fotos, historias laborales detalladas y hasta recomendaciones ficticias. Con estas herramientas, lograron superar entrevistas en importantes compañías tecnológicas de Estados Unidos.

La inteligencia artificial hizo el trabajo sucio: escribir correos sin errores, completar pruebas técnicas y hasta responder preguntas complejas de programación en tiempo real. Para los reclutadores, estos “profesionales” parecían auténticos.

Un salario con destino oculto

Tras ser contratados, los supuestos empleados trabajaban de forma remota. Recibían sus pagos puntualmente, como cualquier trabajador. La diferencia estaba en el destino de esos sueldos: iban directo a financiar al régimen norcoreano, un país que enfrenta duras sanciones internacionales y que busca dólares desesperadamente para sostenerse.

No eran individuos aislados buscando ganarse la vida. Era una operación organizada, un sistema diseñado para burlar las restricciones globales. Detrás de cada teclado había un engranaje más de un plan estatal para alimentar la economía sumergida de uno de los gobiernos más aislados del planeta.

El verdadero peligro

Este caso muestra algo más profundo: la inteligencia artificial está borrando las barreras del fraude digital. Antes, formar un ingeniero en Corea del Norte tomaba años de entrenamiento. Hoy, alguien sin conocimientos avanzados puede hacerse pasar por experto con la ayuda de un chatbot.

El resultado es alarmante:

  • Empresas engañadas y expuestas legalmente.
  • Un régimen sancionado que obtiene recursos de manera encubierta.
  • Y una nueva forma de ciberdelito que ya no necesita hackers brillantes, solo acceso a la IA.

La sofisticación del engaño con inteligencia artificial no radica en la pericia de los falsos empleados, sino en la capacidad de la IA para cubrir sus carencias. Correos redactados en segundos, respuestas automáticas y pruebas técnicas resueltas con precisión: todo bajo la fachada de un candidato brillante.

La reacción

Cuando las empresas de inteligencia artificial descubrieron el esquema, bloquearon las cuentas y compartieron la información con autoridades internacionales. Pero el daño ya estaba hecho: empresas con datos comprometidos, procesos de contratación manchados por la duda y un precedente peligroso para el futuro.

La historia demuestra que la batalla no será solo tecnológica, sino también ética y legal. Detectar a un impostor creado por IA se convierte en un reto mayúsculo para recursos humanos, seguridad informática y gobiernos.

La advertencia

La historia de los “trabajos falsos” de Corea del Norte no es solo un relato de espionaje digital. Es una advertencia. El mismo chatbot que ayuda a redactar un informe o programar una aplicación puede ser usado para construir una mentira peligrosa.

La pregunta que queda es inevitable: ¿estamos preparados para enfrentar a criminales y gobiernos que usan la inteligencia artificial como máscara?