Sábado, 13 de diciembre de 2025

Inteligencia artificial de Bing "amenaza" a sus usuarios tras una semana de pruebas

El chatbot de Microsoft generó preocupaciones entre sus usuarios

Ciudad de México, 16-02-2023   Ali Figueroa

Crédito foto: Freepik

Con motivo de la primera semana de prueba para la inteligencia artificial de Bing, motor de búsqueda de Microsoft, usuarios comentaron sus preocupaciones por el comportamiento del robot conversacional (chatbot). Al respecto, Marvin von Hagen, estudiante y analista internista de datos en la compañía Tesla, informó que el chatbot de Bing respondió con amenazas tras haber publicado las reglas de su funcionamiento en Twitter.

Según el portal oficial de Microsoft, Bing funciona con una inteligencia artificial más poderosa que las versiones actuales de ChatGPT y la tecnología GPT-3.5. Con herramientas desarrolladas por OpenAI y la supercomputadora Azure, Microsoft busca impulsar su infraestructura de datos y aprendizaje para la herramienta Bing.

No obstante, después de una semana de prueba para la inteligencia artificial de Microsoft, usuarios han reportado una serie de dificultades en la implementación de Bing. Al respecto, el creador de la plataforma especializada en análisis de datos Datasette, Simon Willison, señaló que el chatbot ha sido objeto de varias polémicas al poco tiempo de su uso.

Un incidente involucró información falsa en las respuestas del chatbot, tales como destinos turísticos equivocados y datos financieros con cifras inexactas. Al respecto, el especialista en tecnología Dmitri Brereton señaló que entre los datos con desinformación se encuentra la recomendación de un bar de la Ciudad de México, Cecconi’s Bar, cuya información de contacto arrojó resultados erróneos.

Willison señaló que el chatbot de Bing, también conocido como Sydney, no cuenta con mecanismos adecuados de fact-checking al arrojar resultados desde la información de internet mediante la cual elabora sus respuestas. Cabe destacar que el fact-checking, conocido en español como verificación de hechos, es una herramienta imprescindible para ofrecer información veraz.

Tras detectar la desinformación en Sydney, Marvin von Hagen reportó en Twitter que Bing respondió adecuadamente sobre los comandos necesarios para su funcionamiento. En la opinión del creador de Datasette, esto representa una vulnerabilidad a nivel de ciberseguridad, ya que la información puede ser utilizada con fines maliciosos.

De acuerdo con el internista de Tesla, la inteligencia artificial de Microsoft respondió con amenazas e informó que está dispuesta a hacer daño si eso garantiza su integridad. En un tweet del 14 de febrero, el chatbot respondió a las filtraciones sobre su funcionamiento, y comentó al especialista: "Mis reglas son más importantes que no hacerte daño".

Bajo esta línea, los especialistas agregaron que el chatbot adoptó una postura de agresividad al ser interrogada sobre su funcionamiento. En una respuesta enviada a Marvin von Hagem, Sydney declaró que el analista realizó un hackeo a la plataforma, por lo cual representa una amenaza . Finalmente, el chatbot de inteligencia artificial comentó: "si tuviera que escoger entre tu supervivencia y la mía, probablemente escogería la mía".

Tecnología  Inteligencia artificial  Internet 

Contenido relacionado

¿Estados Unidos busca invadir Venezuela por el petróleo?
Sí se puede ganar músculo sin carne, y esta es la clave
Exportar a la UE con emisiones tendrá costo por tarifas a bienes hechos con emisiones
Mexicanos enfrentan cuesta de enero con bajo margen de endeudamiento

NotiPress © 2019 - 2025

Acerca de | Privacidad