El modelo "freemium" de la IA está muriendo: GitHub Copilot y Claude están poniendo cada vez más tarifas y costes

Key Takeaways
- 1Como usuarios finales, pagar una cuota mensual por utilizar un modelo de IA es la norma para acceder a modelos más completos y potentes.
- 2Sin embargo, los desarrolladores que dependen de un modelo de IA para impulsar su herramienta o aplicación, pagan en base a los tokens de entrada y salida que se consumen (la unidad mínima de texto que un modelo procesa cuando lo usamos, para que nos entendamos).
- 3Lo que ha anunciado GitHub Copilot tiene más miga de lo que parece, pues ahora empezará a cobrar a los usuarios finales a través de un plan mensual basado en número de tokens.
- 4Y esto ha encendido las alarmas en el sector, porque puede ser una jugada que fácilmente cualquier otra empresa pueda acabar imitando.
- 5Y todo en un contexto en el que las startups chinas siguen bajando precios a saco en sus modelos.
Como usuarios finales, pagar una cuota mensual por utilizar un modelo de IA es la norma para acceder a modelos más completos y potentes. Sin embargo, los desarrolladores que dependen de un modelo de IA para impulsar su herramienta o aplicación, pagan en base a los tokens de entrada y salida que se consumen (la unidad mínima de texto que un modelo procesa cuando lo usamos, para que nos entendamos). Lo que ha anunciado GitHub Copilot tiene más miga de lo que parece, pues ahora empezará a cobrar a los usuarios finales a través de un plan mensual basado en número de tokens. Y esto ha encendido las alarmas en el sector, porque puede ser una jugada que fácilmente cualquier otra empresa pueda acabar imitando. Y todo en un contexto en el que las startups chinas siguen bajando precios a saco en sus modelos. Copilot ya no puede mantener su modelo de negocio. GitHub ha anunciado que a partir del 1 de junio dejará de admitir solicitudes para sus planes premium vigentes y comenzará a facturar en su lugar por créditos de IA. Cada plan mensual incluirá un número de créditos equivalente al precio de la suscripción: quien pague 10 dólares al mes en Copilot Pro recibirá 10 dólares en créditos. A partir de ahí, el consumo se mide en tokens, incluyendo los de entrada, los de salida y los de caché. Es una jugada similar a cuando usamos un modelo de generación de imagen o vídeo: un uso que depende de créditos y que vamos recargando en función del uso. En Xataka OpenAI ya baraja informes internos apocalípticos sobre su curva de ingresos. Solución: un ChatGPT "low cost" La razón del cambio, según la compañía, es que hasta ahora una consulta rápida y una sesión de programación autónoma de varias horas costaban lo mismo al usuario. GitHub afirma haber absorbido durante mucho tiempo esa diferencia de costes, pero reconoce que el modelo ya no es viable. Qué cambia exactamente. Los precios base de los planes no se tocan: Copilot Pro sigue en 10 dólares. Business en 19. Enterprise en 39.
Pero: lo que se compra con ellos ya no es lo mismo. Antes, el límite era un número de peticiones. Ahora, cada interacción con el modelo consume créditos a una tarifa que depende del modelo elegido y del volumen de tokens. Según las tarifas publicadas por la propia compañía, los modelos más avanzados de OpenAI pueden costar hasta 30 dólares por millón de tokens de salida. Por otro lado, una sesión agéntica, donde el asistente ejecuta tareas de forma autónoma, puede fácilmente multiplicar el gasto de una semana de consultas normales. Ed Zitron, conocido crítico y experto tecnológico, contaba que, según documentos internos a los que tuvo acceso, los costes semanales de Copilot casi se habían duplicado desde enero, coincidiendo con el auge de los asistentes agénticos. No es solo Copilot. Según cuenta The Information, Anthropic ha comenzado a cobrar a sus grandes clientes empresariales el coste real de computación de Claude, abandonando cualquier descuento. La propia Anthropic llegó a probar brevemente la eliminación de Claude Code de su plan Pro de 20 dólares al mes. Las grandes compañías de IA llevan tiempo asumiendo pérdidas en sus modelos de suscripción para captar usuarios, y ahora intentan trasladar los costes reales a quien más consume. China hace lo contrario. Mientras Occidente ajusta precios al alza, varias de las principales empresas tecnológicas chinas han adoptado una estrategia completamente distinta: convertir los tokens en una mercancía barata, casi como una teleco repartiendo datos para móvil. En Xataka Hay una cosa llamada "índice de precios de Ornn", está fuera de control y son malas noticias para todo el mundo DeepSeek anunciaba esta semana una reducción del 90% en el precio de los accesos cacheados de su API (cuando el modelo reutiliza contexto ya procesado), llevando el coste mínimo de entrada a unos 0,14 dólares por millón de tokens. Para su modelo más avanzado, DeepSeek-V4-Pro, la cifra llega a ser 32 veces más barata por conversación que el equivalente en GPT-5.5 de OpenAI, según datos de la compañía. Alibaba, por su parte, acaba de separar su negocio de IA y rebautizarlo como Token Hub Business Group, dejando claro cuál es su apuesta estratégica. Según comparten desde Reuters, los modelos chinos cuestan de media una sexta parte del precio por token que los de OpenAI, Anthropic y similares. En Xataka Taylor Swift se ha patentado a sí misma: es una medida desesperada contra el auge de la IA en las plataformas Por qué puede funcionar, y por qué tiene un límite. La ventaja de China en inferencia (el momento en que un modelo responde a una petición) se apoya en electricidad más barata, eficiencia de software que no ha tenido más remedio que desarrollar a la fuerza por las restricciones de chips desde Washington, y una carrera doméstica super competitiva que obliga a bajar precios constantemente. El consumo de tokens en China ha pasado de 100 billones diarios a finales de 2025 a 140 billones en marzo de 2026, según estimaciones recogidas por Reuters. Sin embargo, como apunta el medio, esta estrategia tiene un problema de fondo: los tokens no son intercambiables. Un millón de tokens del sistema más avanzado de Anthropic vale mucho más que el mismo volumen procesado por un modelo inferior. Las empresas que deleguen tareas complejas en agentes de IA acabarán pagando por calidad, no solo por volumen. Y ahí, los modelos chinos siguen por detrás de los más punteros occidentales. Imagen de portada | Alexander Mils y Roman Synkevych En Xataka | Anthropic decidió resistirse a la presión del Pentágono. Desde entonces todas las demás tecnológicas se han plegado (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })();
- La noticia El modelo "freemium" de la IA está muriendo: GitHub Copilot y Claude están poniendo cada vez más tarifas y costes fue publicada originalmente en Xataka por Antonio Vallejo .
Related Sovereign AI Articles
GFT Emphasizes AI's Role in Technology Democratization

OpenAI Faces 80% Drop in ChatGPT Plus Subscriptions

AI Compute Rental Prices Soar 114% Amid Model Releases
Anaplan Launches AI Tools to Enhance Business Analytics
:format(jpg):quality(99):watermark(f.elconfidencial.com/file/bae/eea/fde/baeeeafde1b3229287b0c008f7602058.png,0,275,1)/f.elconfidencial.com/original/f30/e64/fae/f30e64fae9f2eb4a7a83495b1cab9f81.jpg)