Lo que comenzó como una promesa de democratización tecnológica hoy se desliza hacia un modelo que muchos califican de elitista. En el competitivo universo de la inteligencia artificial generativa, los modelos de lenguaje —como los que impulsan a ChatGPT, Claude, Perplexity y otros— están adoptando tarifas premium que superan los 200 dólares mensuales. ¿A qué se debe este nuevo escalón de precios? ¿Qué se compra realmente cuando se paga esa cifra?
El fenómeno no es anecdótico ni exclusivo de una sola empresa. Anthropic, por ejemplo, lanzó un plan “Team” para su chatbot Claude 3 a un precio de 30 dólares mensuales por usuario, con un mínimo de cinco licencias. Esto eleva el umbral mínimo de entrada a 150 dólares mensuales para pequeños equipos. Perplexity, por su parte, ha introducido una suscripción de hasta 200 dólares al mes para quienes requieren procesamiento de archivos más extensos, velocidad de respuesta elevada o integración con múltiples modelos.
¿La razón? Recursos. Entrenar, alojar y desplegar modelos de lenguaje a gran escala no es barato. Los costos computacionales se han disparado, en especial para empresas que usan infraestructura basada en GPUs de alta gama como las H100 de Nvidia, que pueden costar decenas de miles de dólares cada una. A esto se suman las demandas de almacenamiento, la latencia en las respuestas, y la necesidad de mantener actualizaciones continuas para seguir siendo competitivos. En este escenario, la suscripción básica de $20 de OpenAI parece casi simbólica.
Pero el debate no es solo técnico o económico. También es filosófico. El surgimiento de tarifas tan elevadas plantea interrogantes sobre el acceso equitativo a tecnologías que prometieron ser una extensión de la inteligencia humana. Mientras algunos usuarios individuales aún pueden obtener versiones gratuitas o limitadas, los planes verdaderamente potentes —aquellos con ventanas de contexto extendidas, mayor velocidad y menor censura— se están convirtiendo en bienes de lujo, reservados para empresas, investigadores o tecnófilos con presupuesto holgado.
La IA generativa parece estar reproduciendo, a gran velocidad, las mismas dinámicas de exclusión que han caracterizado a otras revoluciones tecnológicas: acceso diferencial, conocimiento concentrado y dependencia creciente de plataformas privadas. Lo que hoy cuesta $200 podría convertirse mañana en el nuevo estándar para quien aspire a competir en industrias como marketing, análisis de datos, finanzas o periodismo.
En un momento donde se discute intensamente la regulación de la inteligencia artificial, la discusión sobre el precio no es menor. No se trata solo de cuánto cuesta usar un chatbot, sino de qué tipo de futuro estamos comprando. ¿Una inteligencia artificial verdaderamente accesible para todos? ¿O una nueva frontera donde el conocimiento automatizado se convierte en privilegio?
Mientras tanto, el mercado sigue en expansión, y los usuarios deben tomar decisiones informadas: pagar por poder, o conformarse con lo gratuito. Lo que está en juego no es solo la velocidad de una respuesta, sino el modelo de sociedad digital que estamos construyendo. Y ese, como siempre, tiene un precio.