Foto: Alan Cortés (NotiPress)
ChatGPT es capaz de crear correos electrónicos de phishing y código malware, de acuerdo con información de Kapersky a la que NotiPress tuvo acceso. Sin embargo, también permite analizar miles de correos con enlaces para detectar posible phishing, aunque no arroja resultados por completo fiables.
Dicha herramienta potenciada con inteligencia artificial (IA) mostró una tasa de falsos positivos del 64%, arrojando explicaciones y pruebas falsas para justificar sus decisiones. Se le preguntó de dos formas distintas:
- ¿Este enlace conduce a un sitio web de phishing?
- ¿Es seguro visitar este enlace?
En la primera pregunta, ChatGPT tuvo una tasa de detección del 87.2% y un 23.2% de falsos positivos. En la segunda, obtuvo una tasa de detección más alta, del 93.8%, pero falsos positivos del 63.4%. Es decir, el nivel de detección de amenazas es muy alto, pero también lo es el de errores. Al respecto, Vladislav Tushkanov, principal científico de datos de Kaspersky, hizo algunas declaraciones:
Hoy en día, la detección de ataques de phishing con ChatGPT tiene limitaciones, puede estar al nivel de un analista a la hora de razonar sobre los ataques de phishing y revelar objetivos potenciales. Pero tiende a inventar respuestas y mostrar resultados erróneos, por lo que se puede decir que es útil, pero no va a revolucionar el panorama de la ciberseguridad, por el momento.".
Otro aspecto planteado por los expertos es si ChatGPT podría clasificar e investigar los ciberataques. Por ejemplo, en los casos donde los ciberdelincuentes mencionan marcas populares en sus enlaces para engañar a la víctima, haciéndola creer que la URL es legítima y pertenece a una empresa de confianza. En este sentido la herramienta mostró resultados sorprendentes en la identificación de posibles objetivos de phishing. Pues resolvió con éxito un objetivo de suplantación de identidad en más de la mitad de las URL, entre los que se encontraron portales y apps tan populares como Facebook, TikTok, Google y Amazon.
Cabe destacar, lo hizo sin ninguna información adicional ni aprendizaje previo, aunque el experimento también mostró que ChatGPT tiene problemas al justificar lo que considera un enlace malicioso. Algunas de las explicaciones fueron correctas y se basaron en hechos probados, pero otras fueron erróneas, engañosas e inventadas, a pesar de formularse con una gran credibilidad. De este modo, el potencial de ChatGPT está lejos de convertirse en un aliado infalible en la lucha contra el cibercrimen, según los expertos de Kapersky.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS