Es en ese proceso, y no en el resultado automático, donde se construye el oficio.
Hace unos días, en plena negociación, la persona del otro lado de la mesa — muy capaz en lo suyo, pero claramente ajena al mundo legal— me corrigió con total seguridad: “Es que ChatGPT me dijo que eso era legal”.
Lo dijo en voz alta, sin sonrojarse. Como si acabara de citar la doctrina más especializada sobre el asunto.
Estamos entrando en una etapa inquietante, incluso riesgosa, para el derecho corporativo. No porque la inteligencia artificial sea en sí un riesgo —no lo es, usada con criterio—, sino porque empieza a desplazar, sin resistencia, lo que constituye el núcleo del ejercicio profesional: el juicio jurídico.
Circulan cláusulas de limitación de responsabilidad copiadas del Common Law impecables en la forma e inaplicables en Colombia. Protocolos de resolución de conflictos diseñados para holdings regionales, implantados en sociedades sin junta directiva… ni conflicto. Matrices de gobierno corporativo con funciones asignadas a comités de auditoría en compañías donde la contabilidad la lleva el primo del gerente, en Excel. Y reformas estatutarias tomadas de los modelos más complejos de Delaware, registradas para sociedades de accionista único en la Cámara de Comercio de Facatativá.
El problema no es cómo funciona la inteligencia artificial, sino el modo en que sus respuestas se integran —casi sin mediación— a decisiones jurídicas que exigen análisis, contexto y conocimiento. Textos generados por modelos de lenguaje están siendo asumidos como criterio técnico sin verificación de su aplicabilidad ni relevancia. Lo que debía servir como punto de partida termina operando como argumento definitivo. Y lo que se firma no es derecho: es su emulación.
El uso de inteligencia artificial en el ámbito jurídico ya no es una posibilidad remota ni una curiosidad anecdótica. En 2023, un juez en Cartagena incorporó fragmentos generados por ChatGPT en la motivación de una sentencia de tutela. La Corte Constitucional, en la Sentencia T-323 de 2024, intervino para sentar una primera línea jurisprudencial sobre el tema: no prohibió su uso, pero exigió participación activa del juez, trazabilidad en las fuentes y responsabilidad plena por el contenido de la decisión.
Ese caso fue revisado institucionalmente, bajo criterios exigentes de control judicial. En el ámbito privado, en cambio, no existe un mecanismo equivalente. Las decisiones adoptadas con apoyo de estas herramientas no son objeto de revisión estructural y, en su ausencia, la incorporación automática de contenidos generados por inteligencia artificial compromete, en último término, la integridad del ejercicio profesional.
Por eso el riesgo no está en la herramienta en sí, sino en suplantar con ella el rol deliberativo que le corresponde al abogado. Esto, toda vez que el derecho corporativo —el de verdad, el que practicamos quienes nos dedicamos a esto— no se aprende con modelos ni plantillas. Se forma con años de estudio y con la práctica, aprendiendo a partir de las disputas a reconocer patrones y a entender, poco a poco, dónde, cómo y por qué se rompen las estructuras. Es en ese proceso, y no en el resultado automático, donde se construye el oficio.