Cómo resumir documentos extensos con LangChain y OpenAI
Los modelos de lenguaje grandes han facilitado muchas tareas como la creación de chatbots, la traducción de idiomas, la síntesis de texto, etc. Solíamos escribir modelos para la síntesis de texto, y siempre había problemas de rendimiento. Ahora, podemos hacer esto fácilmente con el uso de modelos de lenguaje grandes (LLMs, por sus siglas en inglés). Por ejemplo, los LLMs de última generación ya pueden manejar un libro completo en su ventana de contexto. Sin embargo, todavía existen algunas limitaciones al resumir documentos muy extensos. El límite contextual o longitud del contexto en un LLM se refiere al número de tokens que un modelo puede procesar. Cada modelo tiene su propia longitud de contexto, también conocida como límite máximo de tokens. Por ejemplo, un modelo GPT-4 estándar tiene una longitud de contexto de 128,000 tokens. Perderá información para los tokens que excedan ese límite. Algunos LLMs de última generación como Gemini 2.5 Pro de Google IA Studio tienen un límite contextual de hasta 1 millón de tokens. Sin embargo, a medida que aumenta el límite contextual, los LLMs sufren limitaciones como el efecto de primacía y el efecto de recencia. El efecto de primacía en los LLMs se refiere a que el modelo otorga más importancia a la información presentada al principio de una secuencia. El efecto de recencia se refiere a que el modelo enfatiza la información más reciente que procesa. Ambos efectos sesgan el modelo hacia partes específicas de los datos de entrada. El modelo puede omitir información importante en medio de la secuencia. El segundo problema es el costo. Podemos resolver el primer problema del límite contextual dividiendo el texto, pero simplemente no podemos pasar el libro completo directamente al modelo. Eso costaría mucho. Por ejemplo, si tenemos 1 millón de tokens de un libro y lo pasamos directamente al modelo GPT-4, el costo total sería de alrededor de $90 (tokens de inicio y finalización). Tenemos que encontrar un punto intermedio para resumir nuestro texto considerando el precio, el límite contextual y el contexto completo del libro.