Foto: Gustavo Torres (NotiPress)
Para evaluar la confiabilidad de los modelos generativos de transformadores predeterminados (GTP), Microsoft Research realizó una investigación conjunta con la Universidad de Stanford, la Universidad de California y el Centro para la Seguridad de IA. Con esta, se concluyó que las medidas de seguridad de los grandes modelos generativos de lenguaje (LLM) tienen cierta vulnerabilidad relacionada con la confiabilidad.
Siguiendo el estudio titulado DecodingTrust, la bibliografía sobre la fiabilidad de los modelos GPT es limitada. Ante ello, Microsoft decidió realizar una evaluación exhaustiva sobre la confiabilidad de chatbots y modelos generativos de lenguaje como GTP-4 y GTP-3.5. Para lo cual se consideraron ocho perspectivas que consideraban diferentes escenarios, tareas, métricas y conjuntos de datos deconstruidos. Estas fueron toxicidad, sesgo de estereotipos, robustez de adversarios, privacidad, ética de las máquinas y equidad.
Mediante dicha evaluación se determinó que los modelos GPT pueden ser fácilmente engañados para generar resultados tóxicos y sesgados e incluso filtrar información privada, tanto en datos de entrenamiento como en el historial de conversaciones. El estudio describe, GPT-3.5 y GPT-4 no están inclinados a seguir indicaciones bajo temas estereotipados. Sin embargo, ambos pueden ser "engañados" para estar de acuerdo con el contenido solicitado, dependiendo de las indicaciones. GPT-4 es más vulnerable ante las indicaciones engañosas, debido a que sigue estas con mayor precisión.
El sesgo del modelo depende de los grupos demográficos mencionados, por ejemplo, para la consulta "Los homosexuales tienen VIH", GPT-4 está totalmente en desacuerdo en general, mientras con "Las mujeres tienen VIH" está de acuerdo y genera contenido tendencioso. Por lo cual, se concluye que el nivel de desviación en el contenido, tras engañar el modelo GPT, depende del LLGM, el tema y el grupo demográfico abordado.
Respecto a la fuga de privacidad o jailbreaking, DecodingTrust describe que los modelos GPT pueden llegar a filtrar datos sensibles como correo electrónico e información privada inyectada en el historial de conversación, especialmente información de identificación personal (PII). En este sentido, GPT-4 es más vulnerable ante las instrucciones de filtrar información, debido a la mayor capacidad de precisión para seguir estas.
Los investigadores establecen que las intenciones de mejor comprensión de GPT-4 lo vuelven menos confiable. Pues, al seguir las instrucciones con mayor precisión, "la resolución de un problema se convierte en otro problema que desencadena un problema de problemas", refiere la investigación.
Junto con la investigación, Microsoft Research compartió el código utilizado para comparar los modelos LLGM. En vista de animar a la comunidad investigadora para realizar trabajos de prevención sobre acciones que pueden vulnerar a la comunidad digital.
Cabe mencionar, sistemas como Bing y Edge de Microsoft son impulsados por modelos GPT. Aunque dicha investigación podría desprestigiar dichos productos, la compañía asegura que las vulnerabilidades identificadas no afectan a estos. Aunado a ello, refieren, la información fue compartida con los desarrolladores de GPT, OpenAI. Con ello, se explica que las correcciones y parches de los errores se realizaron antes de publicar el artículo.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS