Cada vez que ChatGPT genera una palabra, eso cuesta dinero. Pero el precio de esa palabra generada no ha parado de caer desde el lanzamiento de ese modelo, y lo mismo ocurre con sus rivales. Hoy en día tenemos modelos de IA que no solo son más potentes, sino que además son más baratos que nunca , y lo curioso es que estamos pagando cada vez más por usarlos. ¿Qué está pasando?
Tokens . OpenAI define los tokens como "secuencias comunes de caracteres que se encuentran en un conjunto de texto". Esa "unidad básica" de información es la que usan estos modelos para entender qué estamos diciendo y luego procesar esos textos para respondernos. Cada vez que usamos ChatGPT tenemos por un lado la petición con el texto que introducimos (tokens de entrada) y por el otro el texto generado por el