Este pasado lunes, OpenAI presentó al mundo la nueva versión de su exitoso chatbot de inteligencia artificial ChatGPT.
Esta nueva versión que estará disponible de forma gratuita para todos los usuarios, tiene el nombre de GPT-4o (“o” de onmi).
GPT-4o, se caracteriza por ser una versión más rápida y que permite funciones como chatbots, asistentes de voz y modelos de procesamiento de imagen, todo en una sola herramienta.
Según MIT Technolohy Review, GPT-4o tiene capacidaded similares a GPT-4, pero fusiona en un único modelo varios modelos que normalmente funcionan por separado, lo que permite respuestas más rápidas y transiciones más fluidas entre tareas.
Las novedades que presenta esta nueva versión son:
Conversaciones más fluidas y emotivas
GPT-4o es capaz de responder a peticiones de audio en un promedio de 320 milisegundos, un tiempo similar al que demora un ser humano en responder en una conversación en inglés. Adicional, esta versión es capaz de generar voz en diferentes estilos como: dramático o sarcástico.
Sé mis ojos
Esta opción esta diseñada para asistir a personas con discapacidad visual.
GPT-4o es capaz de leer e interpretar imágenes a medida que van apareciendo en la cámara; además, de interpretar emociones o expresiones faciales.
Traducción en tiempo real
GPT-4o tiene la capacidad de traducir una conversación entre dos personas en tiempo real.
Asimismo, gracias a su modelo de procesamiento de imágenes, la IA puede decirle al usuario como se llaman en otro idioma ciertos objetos que son mostrados a través de la cámara.
Asistencia en reuniones
Esta opción permite que la IA transcriba una conversación dada en una reunión, puede tomar notas y resumir lo que pasó.
Ayuda con las matemáticas
La IA puede guiar al usuario a resolver sus tareas de matemáticas, hacerle preguntas y corregirlo si comete errores en el proceso.
Generar imágenes
A partir de un comando en texto, ChatGPT puede convertir una foto en una caricatura o crear el póster de una película interpretando imágenes e ideas en texto que sea brindado por el usuario.