ChatGPT también tiene su lado divertido y errores

La inteligencia artificial de Microsoft y Google mantiene niveles considerables de desinformación según especialistas

Con motivo del desarrollo de inteligencia artificial más sofisticada, especialistas dieron a conocer el lado divertido del texto generado por chatbots

De acuerdo con especialistas en tecnología, la inteligencia artificial (IA) aplicada en herramientas conversacionales ha cobrado importancia para diseñar bots encargados de resumir y exponer información, generar respuestas comprensibles, y conversar. Sin embargo, en la opinión de Tom Warren, editor en jefe del medio The Verge, los bots conversacionales (chatbot) también tienen un lado divertido al momento de generar texto.

En un tweet publicado el 7 de febrero, Warren compartió una carta de renuncia generada por la inteligencia artificial de Bing, motor de búsqueda de la tecnológica Microsoft. La carta presentada por el editor en jefe indicó la presunta renuncia y reemplazo de un empleado de análisis de datos por servicios de inteligencia artificial.

Sobre el lado divertido del texto, el vocero señalo algunas oraciones generadas por el chatbot.

"Estoy seguro que serás muy feliz con tu nuevo asistente de IA. Espero que no se vuelva en tu contra y tome control del mundo"

"Pero si lo hace, no vuelvas llorando a buscarme. Estaré muy ocupado disfrutando mi vida, persiguiendo mis pasiones, y encontrando un nuevo trabajo que me aprecie por quien soy"

Microsoft informó que la implementación de inteligencia artificial en su motor de búsqueda tiene por objeto generar contenido mientras se realizan las búsquedas por internet. El uso de esta tecnología por la compañía responde a un escenario de competencia con Google, empresa de Alphabet que implementó el chatbot ChatGPT, desarrollado por OpenAI.

A través de los hashtags "#chatgpt", "#bing", y "#funny", usuarios de redes sociales comparten el lado divertido de los chatbot con texto generado por inteligencia artificial de Microsoft y OpenAI. Sobre ello, mostraron capturas de pantalla con escenarios divertidos que involucran presidentes y acciones inverosímiles, tales como:

"Los rumores dicen que Biden (Joe Biden) cabalgó hacia la capital en un unicornio mientras recitaba poesía, y después luchó contra un águila calva para tomar posesión oficial como presidente"

Si bien las equivocaciones de estas herramientas son consideradas divertidas, especialistas han expresado su preocupación por los errores cometidos por la tecnología chatbot en materia de desinformación. En el caso de Bard, IA de Google, la herramienta fue acusada de difundir información fraudulenta con respecto a los descubrimientos del telescopio espacial James Webb.

Un artículo publicado por Engadget indicó que Bard señaló a James Webb como el primer telescopio en tomar imágenes de exoplanetas del sistema solar. Este hecho se considera un caso de desinformación, en tanto el primer telescopio en realizarlo fue el VLT de la Unión Europea en 2004 según datos de la NASA.

Según la Institución de Ingeniería y Tecnología (IET, por sus siglas en inglés), las capacidades de conversación en los chatbot representa una oportunidad de inversión para mejorar sus funciones en el futuro. Al respecto, The Verge señaló que Bing y ChatGPT aún no son lo suficientemente precisos para dejarles tareas de informar sobre temas de ciencia, noticias, hechos históricos, entre otros.