A lo largo de la escasa historia de la inteligencia artificial generativa, podemos señalar que 2024 fue el año de las sorpresas y 2025 el de la experimentación masiva. Ahora, con la llegada de 2026, nos encontramos con la noticia de que la IA ya puede construirse a sí misma, aunque en realidad todavía no está claro para qué sirve exactamente.
En esta ocasión, Anthropic, con su más reciente lanzamiento, ha viralizado y reactivado este hype; si es que en algún momento había llegado a apagarse. Claude Co-work, que aseguran haber desarrollado completamente mediante la propia IA Claude Code usando modelos avanzados como Opus 4.5, reabre un debate que parecía cerrado: ¿Estamos a un paso de una automatización total del trabajo gracias a la IA? Mi opinión es que no, porque si profundizamos más allá de la superficie de esta “magia”, encontramos una fragilidad técnica que no podemos pasar por alto.
Seguramente en varias ocasiones se ha “alucinado” al observar cómo una IA realiza tareas complejas en segundos y con gran precisión, como detectar un pequeño error en una base de datos con millones de líneas. Sin embargo, sus lapsus o errores en tareas relativamente sencillas, como organizar una tabla comparativa con datos reales, nos hacen cuestionar cuáles son sus capacidades reales. Esta inconsistencia no responde a un fallo de programación, sino que forma parte de la naturaleza misma de cómo los modelos actuales procesan la información.
Para entender este comportamiento errático, hay que comprender que la IA trabaja con una combinación de tres niveles de comprensión que se superponen. En ocasiones, responde mediante asociación estadística (repite lo que ha visto millones de veces), en otras por contexto (se ajusta a lo que acaba de decir) y, en el mejor escenario, por principios lógicos (razona paso a paso). El problema es que el modelo transita entre estos niveles de forma invisible para el usuario. ¿Cómo podemos delegar la autonomía completa en nuestros desarrollos de software a un sistema que puede “alucinar” con la misma confianza con la que acierta? Ciertamente, representa un riesgo operativo que no podemos aceptar.
Si profundizamos más allá de la superficie de esta “magia”, encontramos una fragilidad técnica que no podemos pasar por alto.
Otra realidad que Anthropic tampoco ha asumido plenamente es que, si analizamos con más profundidad el desarrollo de Claude Co-work, veremos que, aunque el código haya sido generado en su totalidad por la IA, la intervención humana ha sido esencial para planificar, diseñar e iterar con Claude Code.
En ese sentido, ¿estamos realmente cerca de una IA autónoma? Es importante partir de la premisa de que la productividad no consiste solo en hacer más cosas en menos tiempo, sino en generar mayor valor real y preciso. Si una herramienta automatiza el 90% del trabajo administrativo pero introduce errores que requieren un 20% adicional de revisión y corrección, el beneficio neto se reduce considerablemente.
Diversos estudios respaldan que la colaboración entre humanos y IA produce los mejores resultados. Un ejemplo es un estudio de OpenAI de octubre de 2025 que evaluó el rendimiento de la IA en tareas de alto valor económico en situaciones reales. Sus hallazgos muestran que los procesos iterativos en los que la IA trabaja en conjunto con supervisión humana generan multiplicadores de productividad y reducciones de costos mucho mayores que el trabajo humano por separado.
El desafío, por tanto, no radica en adquirir IA, sino en diseñar un ecosistema de colaboración donde el humano aporte contexto y la IA potencie la ejecución. Sin olvidar que es fundamental medir qué se hace y cuánto realmente cuesta.
Asimismo, resulta imprescindible contar con una supervisión humana especializada. La IA es una excelente ejecutora, pero la intervención humana es clave en la planificación, el diseño y la revisión de los procesos.
La IA es una excelente ejecutora, pero la intervención humana es clave en la planificación, el diseño y la revisión de los procesos.
Por último, la implementación de modelos de estimación rigurosos se vuelve casi una obligación. La gobernanza en la estimación se vuelve esencial para proteger los presupuestos de TI. Necesitamos comprender claramente en qué estamos invirtiendo, independientemente de si el código fue generado por un humano o por un algoritmo que cuesta 90 euros mensuales.
El camino hacia el futuro del trabajo en la era de la IA no es una carrera hacia la autonomía absoluta, sino hacia la precisión controlada. La inteligencia artificial más valiosa, al menos por ahora, no es aquella que “hace todo”, sino la que se integra en procesos que ejecutan con excelencia lo que la organización necesita, manteniendo la calidad y el coste bajo control.
Este es exactamente el reto que enfrentamos día a día con nuestros clientes, ayudándolos a gobernar la aplicación de la IA. Porque acelerar los procesos es sencillo. Mejorarlos, de manera sostenible y con datos fiables, sigue siendo una tarea profundamente humana. Y somos nosotros, los humanos, los que debemos liderar para garantizar el éxito.
Alexandra Blanco es Head of Content de LedaMC.

