Sobre las alucinaciones y pseudo - derecho de la inteligencia artificial (IA) generativa: jurisprudencia actual (2024 - 2026) y ejemplo práctico de esas alucinaciones
Hola a todos:
Hago esta publicación con ocasión de una experiencia bastante particular que tuve en estos días, que me obliga a alertar sobre el futuro que nos espera a los abogados con la inteligencia artificial generativa (IA), así como a recordar sobre las últimas providencias que nuestras Altas Cortes han dado sobre el tema.
Para anticipar la cuestión, explico el contexto:
En estos días, se me solicitó elaborar los documentos básicos para la implementación de la normativa de habeas data en una propiedad horizontal (manual de políticas y procedimientos, aviso de privacidad, autorización para tratamiento de datos personales). Efectivamente, elaboré los documentos (empleando, de una parte, el modelo base de la Superintendencia de Industria y Comercio - SIC que figura en una de sus cartillas; otros modelos de entidades reconocidas, tanto copropiedades como de otras entidades, entre ellas, reconocidas universidades, y otras fuentes; y de otra parte, por supuesto, revisando la normativa legal y reclamentaria sobre el tema, e incluso, revisando la totalidad de decisiones tomadas por la SIC en la materia, respecto de procesos de investigación y sancionatorios).
En fin, hice lo que un abogado responsable, debe hacer: elaborar sus modelos propios, tomando en cuenta buenos referentes (en lo pertinente), buscando referentes de contextos iguales o similares para detectar buenas prácticas (benchmarking), y lo más importante, revisando la validez de dichos referentes a la luz de la ley, la doctrina y la jurisprudencia, para poder elaborar un documento (sin ayuda de IA generativa) que sea ajustado a la ley, práctico y pertinente para la organización cliente.
Pues bien, la administradora de la copropiedad me mandó un mensaje (de entrada, disculpándose) que le había enviado un miembro del Consejo de Administración (curiosamente, su Presidente), aclarando que lo que me iba a mandar provenía de la iniciativa del señor (más concretamente, de su hijo, quien trabajaba en una empresa que supuestamente tenía una IA generativa, que era lo mejor de lo mejor), contentiva de una serie de comentarios (aquí el detalle, generados por la IA generativa) que daban cuenta de falencias "críticas" en mi documento que, a criterio de ese miembro del Consejo, debían corregirse inmediatamente.
Bueno, como le manifesté verbalmente (y luego, por escrito, en mi réplica a ese informe), uno en estos casos no sabe si ofenderse o sonreir. Más tarde les voy a compartir ciertos apartes de ese escrito, para que ustedes como abogados, estimen si están de acuerdo con ese sentimiento. En todo caso, como me parecía importante revisar si efectivamente la IA detectó inconsistencias o errores cometidos por el suscrito, procedí a hacer una nueva revisión.
Los resultados son para la parte final de este documento. Aquí voy a hacer una pausa para recordar lo que (por cierto, le compartí a la administradora para que se lo reenviara al miembro del Consejo), se ha dicho por parte de nuestras Altas Cortes (Constitucional y Suprema de Justicia) sobre el uso de la IA en contextos jurídicos. Repasemos:
Con la aparición de la IA, se han empezado a advertir serios problemas a nivel de las Altas Cortes, al encontrar que abogados litigantes (y lo que es peor, funcionarios judiciales) han utilizado sin ningún criterio la IA para proyectar memoriales y sentencias, terminando en sentencias que han sido anuladas, por hacer interpretaciones tergiversadas de las normas legales, citas descontextualizadas de sentencias, o lo que incluso es peor, citar sentencias inexistentes.
En una oportunidad (T – 323 de 2024, agosto 2, M.P.: Cortés González, J.), la Corte Constitucional constató la incorporación de contenido generado por IA en un fallo de tutela, y dispuso medidas correctivas e institucionales, ordenando al Consejo Superior de la Judicatura divulgar una guía, manual o lineamiento en relación con la implementación de la IA generativa en la Rama Judicial, lo que condujo a la publicación de dicha Guía, mediante Circular PCSJC24 – 37 (septiembre 23).
Después, la Corte Suprema de Justicia, Sala de Casación Civil, en sede de tutela contra providencias judiciales, debió dejar sin efectos una sentencia que atribuía al precedente jurisprudencial invocado en ella, pasajes ajenos a su texto auténtico (STC17832 – 2025, noviembre 5, M.P.: López Martínez, A.). En este caso, un juzgado negó una solicitud, citando el contenido de dos sentencias que no coincidían con su texto verdadero. Todo para reprochar que el funcionario judicial (aquí, el juez y su equipo de apoyo), entre varias tareas, debe prestar especial atención en utilizar los fundamentos normativos y jurisprudenciales adecuados y verificar su autenticidad y contenido. Aquí, además de anular la sentencia, se ordenó al Consejo Superior de la Judicatura a divulgar esta sentencia, para pública recordación.
Luego, la misma Corte Suprema, esta vez la Sala de Casación Penal (STP21973 – 2025, diciembre 2, M.P.: Urbano Martínez, J.), amparó el derecho a un juicio imparcial de un acusado (y reasignó el conocimiento del proceso al juzgado siguiente en turno), tras verificar que el juez de conocimiento había elaborado (con IA), un borrador de sentencia condenatoria antes de escuchar los alegatos de cierre. Allí expresamente se dijo que si bien el juez puede acudir a sistemas de IA cuando ello resulte necesario y pertinente, su utilización debe ser razonada y ponderada, orientada a la protección de los derechos fundamentales, y sujeta a buenas prácticas, criterios éticos y respeto por los mandatos superiores. El empleo indiscriminado o imprudente de estas tecnologías puede comprometer la responsabilidad del funcionario judicial, por lo que, como presupuesto mínimo, deben observarse el principio de no sustitución de la racionalidad humana y las cargas de transparencia, responsabilidad y privacidad.
También se afirmó que la inteligencia artificial solo puede utilizarse en labores propias de la administración de justicia en tanto no sustituya funciones jurisdiccionales indelegables, en especial aquellas que exigen razonamiento humano para la interpretación de los hechos, la valoración de la prueba y la motivación, y adopción de las decisiones judiciales. De lo contrario, se corre el riesgo de transferir indebidamente la responsabilidad decisoria del juez a un sistema autónomo, lo que podría comprometer incluso el principio del juez natural, habida cuenta de que – como lo ha señalado recientemente la OCDE11 – la IA es un sistema que, a partir de datos de entrada, infiere salidas como predicciones o decisiones que influyen en entornos físicos o virtuales (STP21973 – 2025).
En AC739 – 2026 (febrero 12, M.P.: Guzmán Álvarez, M.), la Corte Suprema de Justicia, Sala de Casación Civil, se confirmó la sanción por temeridad a un abogado que en dos memoriales incluyó citas legales y jurisprudenciales apócrifas. Allí se dijo, entre otras, que la Inteligencia Artificial generativa puede constituir un auxiliar valioso si se la emplea con criterio profesional y se someten sus resultados a una verificación rigurosa, en particular cuando el producto incorpora citas normativas o jurisprudenciales. Lo que resulta inadmisible es actuar como intermediario acrítico: recibir el texto generado y trasladarlo al proceso sin contraste alguno con los repositorios oficiales. Quien así procede –esto es, quien omite verificar pese a conocer que el origen de la información carece de garantías de fiabilidad– incurre en lo que la doctrina denomina ceguera voluntaria (willful blindness): una evitación deliberada del conocimiento que se está en condiciones de obtener. Cabe anotar que, en su formulación más estricta, la ceguera voluntaria se equipara funcionalmente al dolo, en tanto supone una decisión consciente de sustraerse al conocimiento de un hecho para poder alegar después su desconocimiento.
El tema no es único en Colombia, como se indicó en AC739 – 2026, en otras jurisdicciones se empezó a encontrar escritos de parte que incorporan legislación inexistente o precedentes fabricados con alucinaciones propias de la IA generativa: entre otros, en EE. UU., Mata v. Avianca, Inc. (2023); en Canadá, Zhang v. Chen (2024); en el Reino Unido, Harber v. Revenue and Customs Commissioners (2023); Ayinde, R v. The London Borough of Haringey (2025), y Hamad Al-Haroun v. Qatar National Bank QPSC & Anor (2025), y en Catar (Qatar Financial Centre Civil and Commercial Court), Jonathan David Sheppard v. Jillion LLC (2025).
Hay otra (AP760 - 2026, febrero 11, M.P.: Corredor Beltrán, D.), se inadmitió una demanda de casación interpuesta por el defensor de una persona (dicho sea de paso, condenada por fraude procesal con ocasión de un proceso de pertenencia, en el cual afirmó bajo la gravedad del juramento que desconocía el domicilio del propietario, quien resultó siendo su arrendador), en la cual se detectó un contenido del 7% de tipo humano, lo que evidenció una marcada influencia de escritura automatizada y permite concluir que fue producido mediante inteligencia artificial. Como lo indica la providencia:
Ante la fundada sospecha de que el escrito presentado por el abogado no había sido confeccionado por el profesional del derecho, la Corte sometió el texto a la herramienta Winston AI6, cuyo análisis arrojó que el documento presenta únicamente un 7% de contenido humano, lo que evidencia una marcada influencia de escritura automatizada y permite concluir que fue producido mediante inteligencia artificial.
Por su parte, la herramienta Copyleaks7 analizó las 3314 palabras que componen el escrito y concluyó que este presenta un 7% de texto plagiado y un 100% de probabilidad de haber sido generado mediante inteligencia artificial.
Ahora bien, la lectura integral del documento presentado por el defensor como demanda de casación -cuyo contenido fue transcrito en los antecedentes procesales de esta decisión- permite advertir que la herramienta tecnológica le ofreció una serie de recomendaciones o sugerencias generales, sobre posibles líneas argumentativas que podrían ser planteadas en una demanda de casación. Sin embargo, tales enunciados estaban desprovistos de todo rigor casacional.
El defensor, en vez traducir esas directrices o sugerencias en verdaderos cargos de casación conforme a la lógica, técnica y principios que rigen el recurso extraordinario, optó por reproducirlos, sin más, soslayando los requisitos mínimos del recurso, esto es, la formulación, desarrollo y demostración de un cargo con sustento en alguna de las causales de casación previstas en el artículo 181 de la Ley 906 de 2004, de modo que su escrito no puede ser considerado como una verdadera demanda presentada en debida forma, lo que impone su inadmisión.
Esta sentencia no profundiza mayor cosa sobre el mal uso de la IA generativa: solamente ratifica la inadmisión del recurso de casación, porque el abogado discente no solamente se equivocó al momento de seleccionar la causal de casación planteada, sino que además incumplió el compromiso exigido por la jurisprudencia de identificar uno de los específicos vicios que constituyen las distintas modalidades de la violación indirecta de la ley sustancial, por lo que, el recurso carece del presupuesto básico de una debida sustentación, cual es la identificación de un error de la sentencia que pueda ser conocido por la Corte Suprema de Justicia. Así lo dice expresamente.
En otras palabras, cuando le tocó recurrir, ahí sí sin la ayuda de la IA generativa, el abogado no supo defender su posición.
Esta es la transcripción literal de los apartes pertinentes de esas providencias.
Hay otra, que no es de relevancia tan directa aquí, pero que me parece interesante en el contexto de otra situación que incumbe a los profesionales del Derecho, ésta vez en el plano académico: una tutela que fue declarada improcedente para controvertir la Resolución EJR24-759 de 2024, emitida por la Escuela Judicial Rodrigo Lara Bonilla, mediante la cual se repuso parcialmente la Resolución EJR24-298 de junio de 2024, para ajustar la calificación que obtuvo el accionante en la evaluación de la subfase general del IX Curso Concurso de Formación Judicial, y lo categorizó como «reprobado», con una calificación total de 766 puntos. El punto de debate de dicha sentencia fue que el acto administrativo que fue cuestionado, al parecer había sido elaborado empleando IA generativa.
A ese respecto, aparte de despachar desfavorablemente por existir otro medio de control judicial (nulidad y restablecimiento del Derecho), la Sala destacó que no tiene asidero la apreciación del libelista sobre que la Escuela Judicial Rodrigo Lara Bonilla no resolvió adecuadamente su alzada, pues la entidad demandada revisó cada pregunta objeto de reproche y desestimó adecuadamente cada uno de sus argumentos. Además, si bien en un enunciado relacionado con la pregunta 57 del Programa de Argumentación Judicial y Valoración probatoria de la resolución cuestionada hay párrafos creados por inteligencia artificial, los mismos no fueron la base que sustentó la escogencia de la respuesta correcta, pues la solución al reparo concretamente fue otra que sí evidenció un análisis humano, respetando los criterios reseñados en T - 323 de 2024.
Para ilustrar a todos, a fin de que entienda la diferencia entre el “razonamiento” de lógica inductiva y probabilística de la IA generativa, frente al razonamiento deductivo y silogístico del derecho), todo ello en defensa de la racionalidad humana frente a la racionalidad algorítmica; le invito a leer (evitando, por cierto, el uso de la IA), las providencias judiciales a que he hecho cita, así como al siguiente trabajo de investigación:
Sierra Cadena, G. (26 de junio de 2024). Implementación de la Inteligencia Artificial en las Altas Cortes de Colombia: los casos de la Corte Constitucional y el Consejo de Estado. Revista Eurolatinoaméricana de Derecho Administrativo, 11 (1) e253. Universidad Nacional del Litoral. https://doi.org/10.14409/redoeda.v11i1.13824
Lo mismo, una recopilación de los casos más recientes, referidos a esas alucinaciones producto del uso irresponsable de la IA generativa. Charlotin, D. (s.f.) AI Hallucination Cases. DamienCharlotin. https://www.damiencharlotin.com/hallucinations/?q=&sort_by=-date&states=Colombia&period_idx=0
Como lo afirma Herrera, L. & Cacua, L. (18 de febrero de 2026. La inteligencia artificial en los estrados: entre la eficiencia tecnológica y la deshumanización de la justicia. El Blog del Departamento de Propiedad Intelectual. Universidad Externado de Colombia. https://propintel.uexternado.edu.co/la-inteligencia-artificial-en-los-estrados-entre-la-eficiencia-tecnologica-y-la-deshumanizacion-de-la-justicia1/), juzgar no es una operación aritmética ni la aplicación mecánica de normas. Implica interpretar hechos complejos, valorar la credibilidad de la prueba, contextualizar conductas y asumir la responsabilidad de subsumir realidades humanas en categorías jurídicas. Cuando esa labor se delega, aunque sea parcialmente, en un algoritmo, se erosiona el núcleo deliberativo que legitima el ejercicio del poder jurisdiccional. La Corte lo expresa con claridad al advertir el riesgo de sustituir la “racionalidad humana”. En su estado actual, la inteligencia artificial no comprende la prueba ni el conflicto; opera sobre correlaciones estadísticas y patrones lingüísticos. Puede producir textos coherentes y estructurados, pero no ejerce juicio, prudencia ni conciencia. Pretender que un modelo de lenguaje evalúe la coherencia interna de un relato o pondere la conducta de las partes equivale a vaciar la providencia judicial de la actividad intelectual que le confiere autoridad y legitimidad.
En el mismo sentido, Melo Rubiano, E. (22 de febrero de 2026. Del algoritmo al expediente judicial, innovación regulatoria desde la jurisprudencia: inteligencia artificial, ejercicio profesional y gobernanza del ecosistema. Comentarios al Auto AC739-2026 de la Corte Suprema de Justicia de Colombia. Agora Mercatorum. Blog del Departamento de Derecho Comercial. Universidad Externado de Colombia. https://agoramercatorum.uexternado.edu.co/del-algoritmo-al-expediente-judicial-innovacion-regulatoria-desde-la-jurisprudencia-inteligencia-artificial-ejercicio-profesional-y-gobernanza-del-ecosistema-comentarios-al-auto-ac739-2026-de-la-c/) advierte que la innovación tecnológica en la industria legal es compatible con la eficiencia y la modernización del mercado, pero exige un fortalecimiento de los mecanismos de control humano, verificación de fuentes y responsabilidad profesional. La automatización no sustituye el juicio jurídico; por el contrario, aumenta la necesidad de supervisión crítica por parte del profesional humano.
"Hallazgos críticos que deben corregirse1. Cláusula de aceptación tácita – ilegal. En la sección "Aceptación de las Políticas" se establece que los titulares con datos preexistentes "aceptan el tratamiento... si no ejercen su derecho de revocar o suprimir". Esto contradice expresamente el Art. 2.2.2.25.2.4 del DUR 1074/2015, que dispone: "En ningún caso el silencio podrá asimilarse a una conducta inequívoca". Esta cláusula expone a la PH a sanciones de la SIC. La transición de bases preexistentes debe hacerse mediante el procedimiento de la Circular Externa 002 de 2015 SIC (publicación en diario de amplia circulación + aviso a titulares + plazo de 30 días hábiles para oposición)."
"(...)Por otra parte, en cuanto a la afirmación de que la cláusula censurada es ilegal porque contradice la Circular Externa SIC No. 2 de 1015 (noviembre 3), la IA generativa (y por lo visto, no la persona humana que actúa como discente), olvidó leer que el objeto de la misma era impartir instrucciones a los responsables del tratamiento de datos personales, concretamente, a las personas jurídicas de naturaleza privada inscritas en las Cámaras de Comercio, y a las Sociedades de Economía Mixta, para efectos de realizar la inscripción de sus bases de datos en el Registro Nacional de Bases de Datos (RNBD).Si el Edificio es una persona jurídica de derecho privado (que surge del régimen de propiedad horizontal), que no tiene la calidad de comerciante ni de entidad sin ánimo de lucro obligada a estar inscrita en la Cámara de Comercio de Bogotá – CCB (y eventualmente, en el Registro Único Empresarial y Social – RUES, llevado por Confecámaras), porque este tipo particular de personas jurídicas (que, sí, son ESAL) se registran ante la Alcaldía Mayor de Bogotá, no le es jurídicamente exigible nada de lo previsto en la mentada Circular Externa SIC No. 2 de 1015.A propósito de lo cual, la IA (no la persona humana que se presenta como discente) falta a la verdad al pretender asignar a la citada Circular Externa SIC No. 2 de 1015, un contenido jurídico que no tiene, al afirmar (temerariamente) que “Esta cláusula expone a la PH a sanciones de la SIC. La transición de bases preexistentes debe hacerse mediante el procedimiento de la Circular Externa 002 de 2015 SIC (publicación en diario de amplia circulación + aviso a titulares + plazo de 30 días hábiles para oposición).”La Circular Externa SIC No. 2 de 1015 carece de semejante disposición. Esa es precisamente la clase de alucinaciones jurídicas o pseudo – derecho que fueron reprochados por la Corte Suprema de Justicia en STP21973 – 2025 y en AC739 – 2026 (en esta última, se sancionó por temeridad a un abogado, que de esa manera tan reprochable – vergonzosa e irresponsable – se puso a efectuar citas legales incoherentes y referencias jurisprudenciales apócrifas, lo que le conlleva un eventual proceso disciplinario, además de la sanción económica que se le impuso, por demás, públicamente).En este orden, el hecho de que quien hace la crítica (tan tajante, de que la cláusula es ilegal, y expone a la PH a sanciones de la SIC) ni siquiera sea profesional del Derecho no le exime de la tan elemental falta de diligencia que deriva de afirmar como un hecho algo que ni siquiera verificó."

Comentarios
Publicar un comentario