Esto ya está pasando. La pasividad también es una decisión.
Claudia Guardia
Durante años hablamos de inteligencia artificial en tiempo futuro. Regulación futura. Impacto futuro. Riesgos futuros. Transformación futura.
Ese tiempo ya pasó.
La inteligencia artificial ya está integrada en procesos reales de trabajo, de decisión y de producción de conocimiento. No como experimento, sino como infraestructura operativa. Y cuando una tecnología se convierte en infraestructura, deja de ser opcional.
Lo que estamos viviendo no es una mejora incremental. Es un cambio en la arquitectura cognitiva de nuestras organizaciones. La IA no reemplaza una tarea aislada. Reconfigura entornos completos. Acelera tiempos. Eleva estándares mínimos. Cambia la forma en que se produce valor.
Y el problema no es la tecnología.
El problema es la brecha entre quienes comprenden la dimensión estructural del cambio y quienes todavía lo observan como una herramienta más.
En 2025 comenzaron a registrarse en Argentina sucesivos episodios en el ámbito judicial donde se detectaron escritos con citas jurisprudenciales inexistentes generadas mediante inteligencia artificial. No se trató de una cuestión técnica menor. Se trató de un problema de criterio, de supervisión y de responsabilidad profesional. La herramienta no falló, falló el marco de uso.
Ese tipo de situaciones no son anécdotas. Son señales.
Señales de que la incorporación de inteligencia artificial sin protocolos, sin comprensión de límites y sin gobernanza institucional produce riesgo jurídico, reputacional y sistémico.
Lo mismo ocurrió en otros frentes. Organismos reguladores, universidades, estudios profesionales, empresas y áreas públicas comenzaron a reaccionar frente a un uso desordenado o acrítico. No porque la tecnología sea ilegítima, sino porque avanzó más rápido que nuestras reglas internas.
La pregunta entonces ya no es si la inteligencia artificial impactará en nuestras profesiones o instituciones. Ya lo está haciendo.
La pregunta es si vamos a gobernarla o si simplemente vamos a reaccionar ante sus efectos.
Gobernanza significa anticipación. Significa diseñar criterios antes de que el error obligue a sancionar. Significa establecer protocolos de uso, trazabilidad, supervisión humana obligatoria, límites claros en materia de datos, y estándares mínimos de calidad.
La mayor vulnerabilidad hoy no es técnica. Es cultural.
Muchas organizaciones están utilizando IA sin haber definido políticas internas. Muchas instituciones públicas experimentan sin lineamientos estratégicos. Muchos profesionales delegan tareas cognitivas sin comprender los riesgos de alucinación, sesgo o descontextualización.
Eso no es modernización. Es exposición.
Si no desarrollamos capacidades internas de comprensión y control, quedaremos sujetos a marcos regulatorios reactivos o a decisiones de proveedores tecnológicos. La soberanía institucional no se pierde de un día para el otro. Se erosiona cuando se delega sin comprender.
Por eso este no es un debate sectorial. No es solo jurídico. No es solo tecnológico.
Es educativo.
Es organizacional.
Es político.
Es cultural.
Frente a este escenario veo tres líneas de acción impostergables.
Primero, formación estructural. No capacitaciones superficiales. Formación seria en funcionamiento de modelos, límites técnicos, sesgos, protección de datos, responsabilidad profesional y ética algorítmica. Sin alfabetización en IA no hay gobernanza posible.
Segundo, institucionalización del uso. Cada organización debería preguntarse hoy mismo qué tareas pueden involucrar IA, bajo qué condiciones, con qué revisión humana, con qué registro interno, con qué criterios de responsabilidad. El uso individual aislado es el peor escenario.
Tercero, cooperación transversal. La inteligencia artificial no puede abordarse desde compartimentos estancos. Requiere diálogo entre disciplinas, entre sector público y privado, entre academia y práctica profesional. La gobernanza es un proceso colectivo.
Lo verdaderamente provocador no es decir que la IA transformará el trabajo. Lo verdaderamente incómodo es aceptar que quienes no construyan capacidades ahora perderán capacidad de incidencia en el diseño del nuevo entorno.
La historia muestra que cada revolución tecnológica produce primero fascinación y luego crisis institucional. La diferencia entre adaptación y desplazamiento radica en la anticipación.
Y anticipar no es alarmarse. Es asumir responsabilidad.
La inteligencia artificial redistribuye el poder cognitivo. Quien comprenda eso tendrá margen de decisión. Quien no lo comprenda quedará sujeto a decisiones ajenas.
No estamos ante una moda. Estamos ante un cambio de arquitectura.
Y frente a cambios de arquitectura, la pasividad no es neutralidad. Es renuncia.
El momento de reflexionar no es cuando el impacto sea irreversible. Es ahora.
No para resistir la transformación.
Sino para gobernarla.