OpenAI presentó el modelo multimodal GPT-4

OpenAI presentó el modelo multimodal GPT-4
0 0
Read Time:2 Minute, 51 Second

OpenAI-min

OpenAI presentó un gran multimodal modelo GPT-4.

Según el anuncio, el GPT-4 puede resolver «problemas complejos con mayor precisión debido a su conocimiento general y capacidades más amplios».

-10% de tarifa de negociación en Binance
¡-10% de tarifa de negociación en Binance de por vida!

Según los desarrolladores, el modelo puede asumir un rol particular a pedido del usuario. Por ejemplo, se le puede pedir que se convierta en abogada o tutora. En este caso, GPT-4 procesará con mayor precisión las consultas relacionadas con un área de conocimiento en particular.

En un video de demostración, el presidente de OpenAI, Greg Brockman, mostró cómo puede enseñar el servicio para responder rápidamente preguntas relacionadas con impuestos.

“Este modelo es tan bueno en el cálculo mental. Tiene capacidades amplias y flexibles”, dijo.

OpenAI agregó que, en comparación con GPT-3.5, el nuevo algoritmo es más robusto, más creativo y capaz de manejar instrucciones precisas.

Comparado con su predecesor, GPT-4 genera textos mucho más voluminosos: 25.000 palabras frente a 3.000.

Límite de palabras establecido en ChatGPT y GPT-4
Límite de palabras establecido en ChatGPT y GPT-4. Datos: OpenAI.

Un video separado dice que el modelo tiene una serie de capacidades que la versión anterior de la tecnología no tenía, incluida la capacidad de «razonar» en función de las imágenes cargadas por los usuarios.

GPT-4 describe lo que ve en la imagen
GPT-4 describe lo que ve en la imagen. Datos: OpenAI.

“GPT-4 es un gran modelo multimodal que, aunque es menos funcional que los humanos en muchos escenarios del mundo real, demuestra un rendimiento a nivel humano en una variedad de pruebas profesionales y académicas”, se lee en el anuncio.

Según el colaborador de OpenAI, Andrei Karpathy, el procesamiento de imágenes significa que la IA puede «ver».

Además, OpenAI ha publicado un documento sobre GPT-4. Sin embargo, los desarrolladores decidieron no revelar detalles sobre el tamaño del modelo, el curso de su entrenamiento y los datos utilizados en este proceso.

La tecnología está disponible para los suscriptores de ChatGPT Plus con algunas restricciones. La compañía también ha abierto una lista de espera para aquellos que deseen utilizar API nuevo modelo.

OpenAI dijo que ya está trabajando con varias empresas para integrar el algoritmo en sus aplicaciones, incluidas Duolingo, Stripe y Khan Academy.

duolingo-max
Aplicación Duolingo con GPT-4 integrado. Datos: Duolingo.

Tras el anuncio, Microsoft confirmó los rumores de que el nuevo Bing se ejecuta en una versión optimizada para búsqueda de GPT-4.

Recuerde que en noviembre de 2022, OpenAI presentó ChatGPT. En dos meses, el servicio se convirtió en el de mayor crecimiento de la historia, alcanzando los 100 millones de usuarios activos.

En febrero de 2023, Microsoft lanzó un motor de búsqueda Bing actualizado basado en ChatGPT.

En marzo, el número de usuarios activos del servicio superó los 100 millones.

Suscríbete a ForkLog en las redes sociales

¿Encontraste un error en el texto? Selecciónalo y presiona CTRL+ENTER

Boletines de ForkLog: ¡Manténgase al tanto de la industria de bitcoin!



Consulte el artículo original sobre forklog.com

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %