Copiar enlace

Cada vez más empresas están integrando modelos de IA generativa en sus procesos o servicios, ya sea de desarrollo propio o basándose en los modelos que han creado los gigantes pioneros en este campo. Uno de estos gigantes es OpenAI, la compañía de investigación y desarrollo de inteligencia artificial detrás de tecnologías como DALLE o GPT.

Esta, en vistas de la competencia salvaje que se está generando en este ámbito, no cesa en su desarrollo de mejoras para sus herramientas, y acaba de anunciar novedades relativas a GPT. A través de un comunicado en su blog, ha presentado nuevas capacidades y también una reducción en sus precios.

Nueva función de llamada en GPT-3.5-turbo y en GPT-4

En concreto, han sido las versiones GPT-3.5-turbo y GPT-4 las que han implementado estas novedades. Ambos modelos ahora cuentan con una nueva capacidad nombrada como “función de llamada”. Esta permite a los desarrolladores describir funciones y que el modelo recupere datos estructurados.

Con esta capacidad, se podrían crear chatbots capaces de responder preguntas llamando a herramientas externas con la creación de código. Por ejemplo, podríamos solicitar a la IA “envía un mail a Andrea para saber si puede reunirse hoy a las cinco de la tarde”, y esta convertiría la petición en una llamada de función como “send_email (to: string, body: string)”.

Otras posibilidades que ofrece son: convertir el lenguaje natural en llamadas a la API o consultas a la base de datos, y extraer datos estructurados de un texto.

Una ventana de contexto más amplia en GPT-3.5-turbo

La ventana de contexto, la cual se mide en tokens, se refiere al volumen de texto que la IA tiene en cuenta antes de generar sus respuestas. Por lo que, cuanto más grande sea esta ventana, mayor será la calidad del texto generado. Atendiendo a esto, OpenAI ha aumentado por cuatro la ventana de contexto de su modelo GPT-3.5-turbo, que ahora incluye 16.000 tokens.

Eso sí, esta mejora conlleva un incremento del precio, pasando a ser de 0,003$ por cada 1.000 tokens de entrada (los que introduces en la herramienta), y de 0,004$ por cada 1.000 tokens de salida (los que genera la IA).

Así mismo, la compañía ha revelado que está testando una versión de GPT-4 que presenta una ventana de contexto de 32.000 tokens. Pero por el momento se trata de una versión limitada.

Reducciones de precios

Si por un lado OpenAI incrementa el precio de los tokens de la versión mejorada de GPT-3.5-turbo, la compañía, en su afán por ser más competitiva, ha decidido reducir el precio de la versión anterior de GPT-3.5-turbo.

Esta rebaja es del 25% y permitirá a los desarrolladores usar este modelo por 0,0015$ por cada 1.000 tokens de entrada y por 0,002 por cada 1.000 tokens de salida. Esto equivaldría a unas 700 páginas por dólar.

Foto: Depositphotos

 

Escribir comentario

¡Mantente al día!