La compañía de inteligencia artificial Anthropic ha implementado una significativa reducción en los límites de uso de su popular modelo de IA, Claude, para los suscriptores de su plan de pago «Pro». El cambio, que limita drásticamente la cantidad de interacciones que los usuarios pueden tener con la IA, se llevó a cabo sin ninguna comunicación oficial, lo que ha provocado una oleada de críticas y desconcierto entre sus clientes.
Usuarios que pagan 20 dólares (unos 18 euros) al mes por el servicio Claude Pro comenzaron a notar que alcanzaban sus límites de mensajes mucho más rápido de lo habitual, en algunos casos después de apenas una decena de interacciones. La frustración no se debe tanto a la existencia de un límite, sino al secretismo con el que la empresa, uno de los principales competidores de OpenAI, ha gestionado la situación.
La sorpresa de los usuarios: «Límite alcanzado tras 15 mensajes»
El descontento se hizo visible rápidamente en plataformas como Reddit y X (anteriormente Twitter), donde numerosos desarrolladores y profesionales que dependen de Claude para tareas de programación y redacción expresaron su sorpresa y malestar.
Uno de los casos más citados es el del desarrollador Phani, conocido en X como «theaIverse», quien denunció en la red social que había alcanzado el límite de uso después de enviar tan solo «10-15 mensajes». Su experiencia fue compartida por otros, como el usuario Alex Albert, quien escribió en X que los límites de Claude Pro habían sido «fuertemente reducidos» (heavily nerfed), una expresión común en el mundo de los videojuegos para describir un debilitamiento intencionado.
Estos testimonios reflejan la frustración de pagar por un servicio «Pro» que, de la noche a la mañana, ofrece una capacidad notablemente inferior a la esperada, obligando a los usuarios a esperar hasta ocho horas para que su límite de mensajes se reinicie.
La explicación oculta en la página de soporte
Mientras la compañía guardaba silencio públicamente, la respuesta se encontraba, de forma discreta, en una actualización de su página de soporte. Según la documentación oficial de Anthropic, el plan Pro ofrece «al menos 5 veces el uso» disponible en la versión gratuita. Sin embargo, la misma página aclara que este uso se puede consumir mucho más rápido de lo esperado.
El texto explica que factores como la longitud de las conversaciones o el tamaño de los archivos adjuntos (que pueden tener hasta 100.000 tokens, el equivalente a unas 75.000 palabras) aceleran el consumo del límite. De hecho, la página llega a poner un ejemplo concreto: «para conversaciones muy largas, especialmente con archivos adjuntos grandes, podrías alcanzar el límite con tan solo 10-15 mensajes en una ventana de 8 horas».
Esta información, aunque clarificadora, no fue comunicada proactivamente a los suscriptores de pago, quienes tuvieron que investigar por su cuenta o enterarse a través de las quejas de otros usuarios para entender por qué su servicio se había visto mermado.
La transparencia, la gran ausente
El núcleo del problema, según la mayoría de las críticas, no reside en la decisión de Anthropic de limitar el uso, sino en la forma en que lo ha hecho. La falta de un correo electrónico, una notificación en la aplicación o una publicación en su blog oficial ha sido interpretada como una falta de respeto hacia sus clientes de pago.
En un mercado tan competitivo como el de la inteligencia artificial generativa, la confianza y la transparencia son activos fundamentales. Los usuarios que invierten dinero en una herramienta esperan una comunicación clara sobre cualquier cambio que afecte a su funcionalidad, especialmente si se trata de una reducción tan drástica de sus capacidades. La estrategia de Anthropic de modificar las condiciones y actualizar la letra pequeña sin un anuncio formal ha generado una importante crisis de confianza. Según la fuente original de esta noticia, se contactó a Anthropic para obtener comentarios, pero no se recibió respuesta al momento de la publicación.
El coste de la carrera de la IA como posible telón de fondo
Aunque Anthropic no ha dado una razón oficial para este cambio, todo apunta a los enormes costes computacionales que implica operar modelos de lenguaje de última generación. La medida coincide con el reciente y ambicioso lanzamiento de la familia de modelos Claude 3 (Opus, Sonnet y Haiku), diseñados para superar en rendimiento a competidores como GPT-4 de OpenAI.
Estos modelos más potentes requieren una mayor capacidad de procesamiento, lo que se traduce en un coste operativo más elevado para la empresa. Es probable que la reducción de los límites de uso sea una estrategia para gestionar estos costes y asegurar la viabilidad del servicio.
Este contexto financiero es crucial. Anthropic ha recaudado la asombrosa cifra de 7.300 millones de dólares (unos 6.700 millones de euros) en el último año de gigantes como Google, Salesforce y Amazon. Esta enorme inyección de capital demuestra la confianza del mercado en su tecnología, pero también subraya la intensidad y el coste de la carrera por liderar el sector de la IA.
En definitiva, el recorte silencioso de los límites de Claude Pro ilustra una tensión creciente en la industria: la necesidad de ofrecer modelos cada vez más sofisticados choca con la realidad de sus costes operativos. Sin embargo, la lección para Anthropic y sus competidores es clara: en la relación con los clientes, especialmente con los de pago, la transparencia no es una opción, sino una necesidad.






