Chat GPT, el chatbot de inteligencia artificial ideado por la compañía Open AI, está dando mucho que hablar. Promete soluciones industriales, respuesta a casi cualquier cuestión y cambiar la concepción de las fórmulas de búsqueda en la web. Pero, como ocurre con prácticamente todas las tecnologías, también puede generar problemas en distintos sectores. En las últimas semanas los expertos han alertado de plagios en textos elaborados con esta herramienta.
Además, especialistas en cibereseguridad, han descubierto que la plataforma de conversación inteligente está sirviendo para ayudar a los ciberdelincuentes a generar malwares, programas maliciosos usados para atacar sistemas informáticos. Así lo explica Eusebio Nieva, experto en ciberseguridad y director técnico de la compañía Check Point: “Hemos visto que en algunos foros de internet estaban hablando de cómo generar malware, o como habían conseguido generar programas maliciosos, utilizando Chat GTP y Codex, que es una inteligencia artificial también de OpenAI, especializada en generar códigos”. Lo hacían concretamente a través de Phyton, un conocido lenguaje de programación. Para comprobar que lo comentado en estos foros era cierto, los expertos de Check Point probaron Chat GPT y detectaron que efectivamente, es capaz de generar, por ejemplo, un correo de phising o conjunto de técnicas para conseguir engañar a quien lo recibe.
Atacantes amateur
“Los propios usuarios podían detectar el phishing porque normalmente se hacía con malas traducciones. En este caso, Chat GPT lo genera en perfecto castellano o en perfecto inglés”, explica Eusebio Nieva. Además, junto a otros expertos en ciberseguridad, comprobó cómo también es posible generar un documento para posteriormente ejecutarlo en un disco duro: un infostealer, un ladrón de información. Esto, explica, es un ataque básico, pero ilustra la posibilidad de utilizar la tecnología para hacer más fácil la labor a los atacantes. “Los script kiddies eran críos o jovencitos que con poco conocimiento utilizaban los scripts que había en internet para realizar ataques. Desaparecieron en los últimos tiempos pero con esto, se da pie a que gente con poco conocimiento o poco nivel, pueda generar ataques de una manera sencilla”, alerta. De hecho, en Check Point creen que el volumen de ciberagresiones crecerá porque habrá más gente, que sin ser experta, se apoye en este tipo de plataformas para
generar problemas. No ocurrirá lo mismo con el grado de peligrosidad de los mismos, que, de momento, no preocupa a los expertos.
En todo caso, Chat GPT no genera por sí mismo un código malicioso. Lo que hacen los ciberdelincuentes es interactuar con la plataforma para generar la interfaz programática. Es decir, no da las instrucciones de cómo generar un malware, pero si el usuario lo pide mediante un código de programación, puede lograrlo. En todo caso, a través del conocimiento básico de lenguaje de programación y con el soporte de Chat GPT, pueden conseguir un ataque completo: “Te da el attachment, es decir, el adjunto que tienes que utilizar para que cuando lo abras, se ejecute y te da el código que tienes que adjuntar al attachment. O sea, te da el paquete completo casi, lo único es que tú tienes que enviar el correo a los usuarios”. Ante este nuevo escenario, los profesionales de la ciberseguridad trabajan principalmente en la prevención. “Tenemos métodos de detección precisamente para proteger a los usuarios. Pero eso no solo lo hacemos con un ataque generado con Chat GPT, sino con cualquier ataque”.
Inteligencia artificial y propiedad intelectual
Los problemas que puede generar Chat GPT van más allá de cuestiones relacionadas con la ciberseguridad. David Fuentes Lahoz, abogado del departamento de Propiedad Intelectual e Industrial de Bird & Bird, alerta de que ya comienzan a detectar casos relacionados con este tipo de tecnologías: “Los problemas que se plantean son distintos en función de si el cliente es quien desarrolla los sistemas de inteligencia artificial, quien usa las prestaciones fruto de dichos sistemas, o quien ha visto vulnerados sus derechos por su uso”. Añade además que algunos de sus clientes comienzan a plantearse “cuestiones relativas a la potencial protección de los datos utilizados para entrenar a los sistemas de inteligencia artificial”. De hecho, según explica este abogado, los datos que utilizan estos sistemas pueden estar protegidos de distintas formas en función del caso concreto: a través de los derechos de propiedad intelectual, los relativos a la privacidad o la competencia desleal pueden entrar en juego.