La incorporación irreflexiva de inteligencia artificial generativa en la redacción de piezas procesales no exime al abogado de su deber profesional; lo intensifica.
El uso acrítico de la inteligencia artificial generativa en la elaboración de escritos judiciales no atenúa la responsabilidad del abogado y, por el contrario, la incrementa, en la medida en que exige mayores estándares de diligencia y verificación. Así lo estableció la Sala de Casación Civil de la Corte Suprema de Justicia en la providencia AC739-2026 (rad. 11001-02-03-000-2025-05324-00) al sancionar a un apoderado que invocó causales inexistentes del recurso extraordinario de revisión e incorporó diez referencias jurisprudenciales apócrifas generadas por un modelo de lenguaje de IA sin verificar su existencia en los repositorios oficiales.
El problema no es nuevo en el mundo, pero sí en Colombia. Desde el célebre caso Mata v. Avianca en Estados Unidos (2023), múltiples jurisdicciones han debido enfrentar escritos judiciales sostenidos en precedentes imaginarios. No obstante, sin que su relevancia se limite a lo novedoso de la decisión, esta providencia construye con rigor conceptual un estándar metodológico para el ejercicio de la profesión en la era de la IA.
El punto de partida de la Corte es filosóficamente poderoso, en cuanto sostiene que, en el ámbito jurídico, las fuentes no se limitan a respaldar el ordenamiento: lo constituyen. En ese sentido, invocar una norma o un precedente no equivale a aportar evidencia sobre un hecho externo, sino que constituye la incorporación al proceso del propio acto normativo que crea, modifica o extingue situaciones jurídicas. Por lo anterior, una cita apócrifa es la introducción de un fundamento normativo inexistente que altera el marco real del litigio y compromete la lealtad procesal de quien la firma.
La Corte reconoce que los modelos de lenguaje a gran escala generan contenido falso con apariencia de verdad —las llamadas «alucinaciones»— como consecuencia estructural de su arquitectura probabilística y expone que este riesgo es público, documentado y conocido. Por eso, quien decide apoyarse en IA generativa asume voluntariamente una fuente que carece de garantías de fiabilidad, lo que eleva su deber de verificación.
De ahí que la providencia identifique dos obligaciones correlativas: de una parte, el deber de veracidad, que impide atribuir a la ley o a la jurisprudencia un contenido que no poseen, y de otro el deber de verificación entendido como la carga positiva de constatar, en repositorios oficiales, que la fuente existe y dice lo que el memorial le atribuye. Este último es además indelegable, de modo que quien suscribe el escrito responde íntegramente por su contenido, con independencia de si lo redactó un auxiliar, un pasante o un algoritmo.
La providencia cierra con un acápite de síntesis elaborado con el apoyo de Claude (modelo Opus 4.6), declarándolo transparentemente y dejando constancia de la supervisión humana. Mientras sanciona el uso negligente de la IA, la Corte la emplea responsablemente. Con ello deja claro que su postura no apunta a proscribir la tecnología, sino a destacar que esta puede potenciar el ejercicio profesional cuando se emplea bajo parámetros de control, trazabilidad y responsabilidad.






