OpenAI podría lanzar la próxima generación de Modelo de lenguaje grande (LLM), GPT-4, tan pronto como la próxima semana. OpenAI también es el creador de los populares modelos de lenguaje ChatGPT y DallE. Si bien ChatGPT se limita a responder las preguntas de los usuarios por escrito, el modelo de lenguaje de próxima generación de la startup respaldada por Microsoft podría ser capaz de crear videos con tecnología de IA y otros tipos de contenido.
En una conversación con el sitio de noticias alemán Heise, el director de tecnología de Microsoft Alemania, Andreas Braun, dijo: «Presentaremos el GPT-4 la próxima semana… tendremos modelos. multimodal entregará videos completamente diferentes, como video».
El modelo de lenguaje multimodal puede derivar información de una variedad de fuentes, lo que significa que los últimos desarrollos basados en GPT-4 pueden ser capaces de responder a las consultas de los usuarios en forma de formas, fotos, música y videos.
¿Qué sabemos hasta ahora sobre GPT-4?
Además de las capacidades multimodales de GPT-4, también puede resolver el problema de que ChatGPT tarda en responder a las consultas generadas por los usuarios. El modelo de lenguaje de próxima generación dará respuestas mucho más rápidas y de una manera más humana.
OpenAI también puede funcionar en aplicaciones móviles utilizando la tecnología GPT-4. En particular, ChatGPT es un modelo de lenguaje basado en la web y aún no tiene una aplicación móvil.
Si bien Microsoft y OpenAI tienen la boca cerrada sobre la integración de GPT-4 en la búsqueda de Bing (quizás debido a las controversias recientes en torno al asistente de búsqueda), es muy probable que GPT-4 se use en el chat de Bing.
Aunque ChatGPT se basa en GPT-3.5, Microsoft Bing Search usa GPT-3 y GPT-3.5 junto con una tecnología patentada llamada Prometheus para generar respuestas rápidamente mientras usa información en tiempo real.