Maria del Pilar Tello
El “hermano maligno” de ChatGPT
Un instrumento que facilita el trabajo a la ciberdelincuencia

Todos estamos felices con el ChatGPT a pesar de sus eventuales alucinaciones resulta útil y complementario del buscador cuando queremos algo preciso. Ha revolucionado el ambiente tecnológico en solo un año, pero no todo puede ser satisfacción. Como sabemos circulan muchos temores acerca de la inteligencia artificial que acompañan las grandes promesas de aumento de la productividad y facilitación de tareas. Ahora se advierte que esta tecnología puede también usarse para generar estafas más sofisticadas, pornografía e incluso armas bioquímicas.
Isabel Rubio aborda el peligro del “‘hermano maligno de ChatGPT” al que llama FraudGPT que se promociona en la llamada dark web para ser usado por los malhechores. Les es útil para escribir un mensaje haciéndose pasar por un banco, para crear malware o mostrar sitios web que pueden ser defraudados. Y no es el único instrumento que puede facilitar el trabajo a la ciberdelincuencia. Se mencionan otras herramientas como WormGPT. Los temores se concretan(*).
Rubio trae la opinión de Josep Albors, director de investigación de la compañía de seguridad informática ESET en España, que pone ejemplos: de la elaboración de campañas de phishing más perfeccionadas y segmentadas, dirigidas a públicos estudiados y concretos. A ello se agrega la temida desinformación a través de videos falsos conocidos como deep fakes con los cuales es posible usar inteligencia artificial para alterar o sustituir caras, cuerpos o voces de una persona. Además de la creación de correos electrónicos en muchos idiomas usando como destinatarios los perfiles en la red. Si quieren profesionales pueden entrar a LinkedIn para dirigirse específicamente a cada empleado en su propio idioma.
Este tipo de ciberdelitos no está generalizado, pero las herramientas como FraudGPT o WormGPT están ahí y pronto serán un grave y serio problema. Así lo discuten en estos días en la cumbre de Davos a sabiendas que en este 2024 hay contiendas electorales que pueden ser distorsionadas por la desinformación facilitada por la inteligencia artificial.
Simplemente la democracia y el derecho de sufragio están en la mira. Para no hablar de la vulnerabilidad del ámbito financiero. El desafío está sobre la mesa y son muchos expertos, políticos y legisladores los que buscan enfrentar estas amenazas que ya no están en la ficción, están peligrosa y concretamente presentes. Y pueden engañar desde ciudadanos de a pie hasta funcionarios gubernamentales, políticos, empresarios o celebridades. La búsqueda de soluciones está en la agenda global con sentido de urgencia. A comenzar con la educación y la concientización de los usuarios para reconocer los emails de phishing u otras amenazas. Lamentablemente no es fácil.
* ISABEL RUBIO El ‘hermano’ maligno de ChatGPT y otras amenazas de la inteligencia artificial generativa. El País. 19 ENE 2024.
COMENTARIOS