Foto: OpenAI
A partir del 13 de mayo, las capacidades de GTP-4o empezaron a desplegarse en ChatGTP, según informó OpenAI en un comunicado. De acuerdo a la la compañía, la última actualización del modelo estará disponible de manera gratuita para usuarios Plus, lo cual les dará acceso a un límite de mensajes hasta 5 veces más alto.
Junto con esto, la compañía anunció que estará disponible la versión alfa de modo de voz de GPT-4o. De igual forma, los desarrolladores podrán acceder a la actualización en la API como un modelo de texto y visión, dada la capacidad nativa multimodal del modelo.
"Con GTP-4o entramos a un único modelo nuevo de extremo a extremo a través de texto, visión y audio, lo que significa, todas las entradas y salidas son procesadas por la misma red neuronal", refirió la compañía liderada por Sam Altman. De este modo OpenAI destaca, este es el primer modelo que combina estas tres modalidades. Pese a lo cual, mencionan, esta es la superficie de las capacidades del modelo, pues aún se están explorando sus capacidades y limitaciones.
En cuanto a rendimiento, la compañía afirma, GTP-4o es similar a GTP-4 turbo en cuanto a inteligencia de texto, razonamiento y codificación. Sin embargo, este modelo tendrá una tarifa equivalente a la mitad de precio de GTP-4 con 5 veces mayor velocidad y nuevas capacidades de audio y video. Además, mediante el apoyo de 70 expertos en dominios como la psicología, sesgo y equidad se identificaron los riesgos a la seguridad que se introducen al ampliar las capacidades del modelo. De forma que se reforzaron las intervenciones de seguridad, en comparación con las versiones anteriores.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS