La verdadera disputa no es técnica, sino institucional: quien no establece reglas para la IA en su organización, cede el control al “default tecnológico” (Imagen Ilustrativa Infobae)

Yuval Harari lanzó en Davos 2026 una frase que incomodó a la sala: la inteligencia artificial como “los nuevos inmigrantes que no cruzarán fronteras con pasaportes”. La comparación no era casual. Estos sistemas atraviesan países y organizaciones sin pedir permiso, con capacidad real de influir en decisiones económicas.

La metáfora, en apariencia poética, se revela mucho más incómoda cuando deja de leerse como literatura tecnológica. No se trata solo de que la IA ingrese: llega para quedarse. No solicita ciudadanía, pero opera en el sistema nervioso de la empresa. No visita los comités; fluye en el centro del proceso decisional. No espera al informe trimestral: modifica, en tiempo real, el menú de opciones disponibles.

En los últimos años, dos extremos se repiten en el mundo corporativo. Hay firmas que dejan que los algoritmos automáticamente tomen decisiones críticas sin distinguir qué puede delegarse y qué no. La eficiencia tecnológica impone sus reglas y nadie se detiene a dibujar el límite.

En el otro extremo, algunas empresas, temiendo un golpe reputacional o una sanción regulatoria, sobrecargan de controles cada decisión del modelo. Duplican validaciones, ralentizan procesos y neutralizan el valor diferencial que buscaban.

En ambos casos, el problema no es técnico. Es institucional: falta diseño, falta un marco claro para decidir hasta dónde llega la IA y hasta dónde manda la organización.

La imagen del inmigrante se vuelve más precisa en este nuevo mapa: ya no hablamos de una herramienta, sino de una integración permanente en el núcleo decisional. Estos modelos aprenden en tiempo real, se recalibran con cada dato, ajustan sus parámetros y condicionan el comportamiento operativo.

No se sientan en la mesa: redefinen la mesa.

Una pregunta aparece, casi ausente en la agenda pública: ¿Qué ocurre cuando un algoritmo entrenado fuera del país, bajo otros supuestos culturales y regulatorios, empieza a influir en el empleo o el acceso a servicios financieros locales? ¿Bajo qué jurisdicción se audita ese modelo? ¿Qué sesgos arrastra, no deliberados por la organización que lo usa? ¿Quién decide si esos criterios son compatibles con la estrategia y la cultura empresarial local?

Ya nadie discute que la responsabilidad final es humana. La cuestión clave es quién define las reglas bajo las cuales la información generada por el inmigrante digital se transforma en acción automática.

Cuando la arquitectura institucional no es fruto de una decisión estratégica, la soberanía operativa se diluye. Nadie la votó, pero cambia igual. Este es el impacto de la arquitectura invisible del poder.

La novedad no reside en que la IA maneje mejores datos. Lo verdaderamente nuevo es su integración permanente, su capacidad de moldear el campo de decisiones antes del liderazgo humano.

Eso es poder estructural silencioso.

Si no definís las reglas de integración del inmigrante digital en tu empresa, las decidirá el “default tecnológico”. Y en el mundo que viene, el poder no lo pierde quien no usa inteligencia artificial, lo pierde quien la usa pero no la gobierna.