Uno de los peores escenarios en torno a la inteligencia artificial ya ocurrió: alguien utilizó esta tecnología para suplantar la identidad del Secretario de Estado de Estados Unidos, Marco Rubio. Según reportó The Washington Post, el impostor logró engañar a funcionarios de alto perfil tanto en EE.UU. como en el extranjero.
Usando IA, esta persona imitó la voz y la forma de escribir de Rubio para enviar mensajes de texto y audios a través de la app de mensajería segura Signal, plataforma habitual entre diplomáticos. En total, al menos cinco altos cargos fueron contactados: un gobernador estadounidense, un congresista y tres ministros de Relaciones Exteriores de otros países.
Un correo falso, una voz clonada
La persona creó una cuenta falsa con la dirección [email protected], desde donde envió los mensajes. El Departamento de Estado informó que las comunicaciones comenzaron a mediados de junio, y que algunos audios presentaban una clonación casi perfecta de la voz del secretario, generada completamente por inteligencia artificial.
Aunque no se han revelado los nombres de las personas afectadas, el Departamento confirmó que se está tratando como un intento de obtener información sensible mediante ingeniería social.
Este incidente podría marcar un antes y un después en el uso de Signal por parte de funcionarios estadounidenses. Aunque su uso ya estaba limitado por protocolos de seguridad, muchos seguían utilizándola para comunicaciones personales. Ahora, las autoridades evalúan si es necesario retirarla por completo, debido a su vulnerabilidad ante suplantaciones de identidad vía IA.
Un riesgo al alcance de cualquiera
Lo más inquietante del caso es lo fácil que puede ser replicarlo. Con apenas unos segundos de audio —como permite la tecnología Voice Engine de OpenAI—, un atacante puede clonar una voz con suficiente realismo como para engañar incluso a personas cercanas a la víctima. Basta con tener acceso a grabaciones públicas o entrevistas para recrear su entonación, pausas y estilo.
Aunque aún se desconoce quién estuvo detrás del ataque, este caso pone sobre la mesa un tema urgente: los usos maliciosos de la inteligencia artificial ya no son cosa del futuro. Son parte del presente.