Foto: Alan Cortés (NotiPress)
En la actualidad, se ha exponenciado el uso y desarrollo de la inteligencia artificial (IA); sin embargo, al no estar del todo regulada en Internet, aun existen riesgos de seguridad al usarla. Lo anterior desencadena una segunda cara de la moneda a esta tecnología usada para simplificar tareas.
La principal cara de la inteligencia artificial es la solución simplificada a algunas tareas, como recientemente se vio en la creación de imágenes a partir de fotografías personales. Además, otra de las innovaciones de la IA es el uso de Chat GPT. Este es un sistema de chat basado en el modelo de lenguaje por Inteligencia Artificial GPT-3, desarrollado por la empresa OpenAI.
De acuerdo con información de especialistas de A3Sec compartida con NotiPress, empresa dedicada a la seguridad digital, esta solución de IA puede ser utilizada en sustitución de servicios de búsqueda como Google o Bing. En este sentido, Chat GPT cuenta con la capacidad para entender las preguntas mediante análisis avanzado de procesamiento de leguajes. Así como también, entregando respuestas basadas en un análisis de muchas fuentes de información.
Otro de los puntos importantes a considerar en la cara benéfica de las IA es el impacto en el Producto Interno Bruto (PIB) mundial en el sector industrial. Según datos del sitio Statista, se estima que para 2030 la IA mejore el PIB de la industria de energía, servicios públicos y minería en un 5,5 por ciento en términos de productividad.
No obstante, el uso de la IA también conlleva un riesgo de ciberseguridad, pues, de acuerdo con A3Sec, todo servicio puede ser un punto de entrada a las organizaciones. Debido a que estas herramientas recolectan cantidades de información a gran velocidad.
A3Sec indica, en el caso particular de Chat GPT, los ciberdelincuentes pueden hacer mal uso de la IA de varias maneras. Entre este mal uso se encuentra la generación de contenido malicioso, esto relacionado a que Chat GPT es capaz de generar textos de manera autónoma. Así los delincuentes podrían usarlo para generar mensajes engañosos para robar información personal o financiera.
Los ataques de ingeniería social también son utilizados por los ciberdelincuentes que pueden crear perfiles falsos en redes sociales. Esta creación de perfiles con el objetivo de engañar a las personas y robar información, al igual que la creación de bots maliciosos.
Finalmente, cabe mencionar, A3Sec recomienda a las organizaciones recordar que la mayoría de IA están en período de prueba. Además de tener en cuenta la ética en el uso de la tecnología y al compartirla tener en cuenta los fines lúdicos o educativos de cada IA.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS