

OpenAI presentó un gran multimodal modelo GPT-4.
Anunciamos GPT-4, un gran modelo multimodal, con nuestros mejores resultados en capacidades y alineación: https://t.co/TwLFssyALF pic.twitter.com/lYWwPjZbSg
— OpenAI (@OpenAI) 14 de marzo de 2023
Según el anuncio, el GPT-4 puede resolver «problemas complejos con mayor precisión debido a su conocimiento general y capacidades más amplios».
Según los desarrolladores, el modelo puede asumir un rol particular a pedido del usuario. Por ejemplo, se le puede pedir que se convierta en abogada o tutora. En este caso, GPT-4 procesará con mayor precisión las consultas relacionadas con un área de conocimiento en particular.
En un video de demostración, el presidente de OpenAI, Greg Brockman, mostró cómo puede enseñar el servicio para responder rápidamente preguntas relacionadas con impuestos.
“Este modelo es tan bueno en el cálculo mental. Tiene capacidades amplias y flexibles”, dijo.
OpenAI agregó que, en comparación con GPT-3.5, el nuevo algoritmo es más robusto, más creativo y capaz de manejar instrucciones precisas.
Comparado con su predecesor, GPT-4 genera textos mucho más voluminosos: 25.000 palabras frente a 3.000.

Un video separado dice que el modelo tiene una serie de capacidades que la versión anterior de la tecnología no tenía, incluida la capacidad de «razonar» en función de las imágenes cargadas por los usuarios.

“GPT-4 es un gran modelo multimodal que, aunque es menos funcional que los humanos en muchos escenarios del mundo real, demuestra un rendimiento a nivel humano en una variedad de pruebas profesionales y académicas”, se lee en el anuncio.
Según el colaborador de OpenAI, Andrei Karpathy, el procesamiento de imágenes significa que la IA puede «ver».
🎉 ¡Ya salió GPT-4!
— 📈 es increíble
— 👀 es multimodal (se puede ver)
— 😮 está de moda con las leyes de escalado
— 🔥 se implementa en ChatGPT Plus: https://t.co/WptpLYHSCO
— 📺 vea la transmisión en vivo de la demostración del desarrollador a la 1 p. m.: https://t.co/drEkxQMC9H https://t.co/WUYzwyxOqa— Andrej Karpatía (@karpatía) 14 de marzo de 2023
Además, OpenAI ha publicado un documento sobre GPT-4. Sin embargo, los desarrolladores decidieron no revelar detalles sobre el tamaño del modelo, el curso de su entrenamiento y los datos utilizados en este proceso.
La tecnología está disponible para los suscriptores de ChatGPT Plus con algunas restricciones. La compañía también ha abierto una lista de espera para aquellos que deseen utilizar API nuevo modelo.
OpenAI dijo que ya está trabajando con varias empresas para integrar el algoritmo en sus aplicaciones, incluidas Duolingo, Stripe y Khan Academy.

Tras el anuncio, Microsoft confirmó los rumores de que el nuevo Bing se ejecuta en una versión optimizada para búsqueda de GPT-4.
Recuerde que en noviembre de 2022, OpenAI presentó ChatGPT. En dos meses, el servicio se convirtió en el de mayor crecimiento de la historia, alcanzando los 100 millones de usuarios activos.
En febrero de 2023, Microsoft lanzó un motor de búsqueda Bing actualizado basado en ChatGPT.
En marzo, el número de usuarios activos del servicio superó los 100 millones.
¿Encontraste un error en el texto? Selecciónalo y presiona CTRL+ENTER
Boletines de ForkLog: ¡Manténgase al tanto de la industria de bitcoin!
Consulte el artículo original sobre forklog.com