2024 no fue el año en que la IA apareció. Fue el año en que las empresas dejaron de preguntarse si debían usarla y comenzaron a preguntarse cómo hacerlo bien. La diferencia es enorme. Pasamos de titulares de laboratorio a implementaciones de producción, de demos de ChatGPT en reuniones ejecutivas a flujos de trabajo rediseñados alrededor de modelos de lenguaje. Este es el repaso de lo que realmente cambió.
GPT-4o: la IA que aprendió a escuchar y ver al mismo tiempo
La presentación de GPT-4o en mayo de 2024 marcó un antes y un después en la percepción pública de la IA. Por primera vez, un modelo de lenguaje procesaba texto, voz e imagen dentro de una sola arquitectura sin la latencia de sistemas encadenados. La demostración en vivo de OpenAI — donde el modelo leía expresiones faciales, resolvía problemas matemáticos desde una hoja de papel y conversaba con latencias inferiores a 300 milisegundos — estableció un nuevo umbral de expectativa para lo que significa una interfaz de IA. Para las empresas, el impacto más concreto fue en atención al cliente y asistentes internos: GPT-4o redujo la barrera de implementación de sistemas multimodales, que antes requerían integrar modelos separados de voz, visión y texto.
La versión disponible en la API también redujo significativamente los costos respecto a GPT-4 Turbo, lo que democratizó el acceso para empresas medianas que hasta entonces no podían costear el volumen necesario para ROI positivo. El costo por millón de tokens en entrada cayó a 5 dólares, frente a los 30 dólares de GPT-4 en 2023. Eso cambió la matemática de muchos proyectos que habían quedado en pausa.
Claude 3.5 Sonnet: el modelo que prefieren los desarrolladores
Anthropic lanzó Claude 3.5 Sonnet en junio de 2024 con resultados que sorprendieron al mercado: superó a GPT-4o en la mayoría de los benchmarks de programación, razonamiento y análisis de texto, a menor costo y con mayor velocidad. Lo que más llamó la atención de los equipos técnicos fue su desempeño en contextos largos — Claude 3.5 mantenía coherencia en ventanas de 200,000 tokens, equivalente a un libro completo — y su comportamiento más predecible en tareas de extracción y estructuración de información. Las empresas que construyen sobre IA para análisis de documentos, contratos o reportes encontraron en Claude 3.5 un motor más confiable que sus predecesores.
La introducción de "Computer Use" en octubre de 2024, que permitió a Claude interactuar directamente con interfaces gráficas como un usuario humano, fue la demostración más clara de la dirección hacia la que se mueve Anthropic: modelos que no solo responden preguntas, sino que ejecutan tareas en sistemas reales.
"2024 fue el año en que la pregunta dejó de ser '¿debemos usar IA?' y se convirtió en '¿cómo construimos con IA sin perder el control?'"
Gemini Ultra y el ecosistema Google: integración como estrategia
Google tomó una ruta diferente a OpenAI y Anthropic: en lugar de competir exclusivamente en benchmarks de modelos aislados, apostó por integrar Gemini en toda su suite de productos. Gemini Ultra en Google Workspace, en Android, en Google Cloud Vertex AI. La estrategia tuvo resultados mixtos en términos de calidad percibida — varios lanzamientos tempranos generaron críticas por errores factuales — pero logró algo que ningún competidor pudo replicar: poner IA generativa en manos de cientos de millones de usuarios de Gmail, Docs y Meet sin que éstos tuvieran que cambiar su flujo de trabajo. Para las empresas mexicanas que ya operan sobre Google Workspace, Gemini representó el camino de menor fricción hacia la adopción.
El año de los agentes: de asistentes a ejecutores
La segunda mitad de 2024 vio el surgimiento de los primeros agentes de IA que no solo recomendaban acciones sino que las ejecutaban. Devin de Cognition, los proyectos de agentes de OpenAI y los pipelines multi-agente construidos sobre frameworks como LangChain y CrewAI comenzaron a aparecer en producción real. La característica definitoria de un agente es que puede planificar, usar herramientas externas, verificar sus propios resultados y corregirse. Las empresas que adoptaron arquitecturas agénticas en 2024 reportaron reducciones de hasta 40% en tiempo de procesos que antes requerían coordinación humana intensiva. El reto no fue técnico sino organizacional: definir qué decisiones puede tomar un agente autónomamente y cuáles requieren validación humana.
Lo que queda pendiente para 2025
El cierre de 2024 deja varias preguntas abiertas con urgencia práctica. La confiabilidad de los modelos en tareas de misión crítica sigue siendo el límite más importante para la adopción empresarial profunda: los modelos alucina con menor frecuencia que en 2023, pero no han eliminado el problema. La gobernanza de datos — qué información entra a los modelos, quién tiene acceso a los resultados, cómo se auditan las decisiones — se convirtió en la preocupación número uno de los equipos jurídicos y de cumplimiento en empresas que comenzaron a integrar IA. Y el costo de los modelos de frontera, aunque bajó significativamente, sigue siendo una barrera para uso intensivo en empresas con márgenes ajustados. 2025 llegará con más presión, más competencia y más casos de uso que ya no son opcionales.