Hasta hace un par de años, la Inteligencia Artificial era vista desde el mundo jurídico como un asunto marginal, algo propio de ingenieros y estadísticos, sin relación con el razonamiento jurídico. Una curiosidad técnica, ajena a la gramática del Derecho. Pero hoy, los modelos de IA no solo están presentes en la sociedad: son cada vez más determinantes. Y el ecosistema legal no es una excepción. La IA no solo ha entrado en la práctica jurídica: ha comenzado a reformularla desde dentro, con una velocidad inquietante, con una ambigüedad estructural, y con consecuencias que apenas alcanzamos a comprender.
La paradoja es esta: pronto nos escandalizaremos al saber que un juez ha redactado sus sentencias con la ayuda de ChatGPT, Pero no alzamos ni una ceja cuando muchos de ellos redactan sus resoluciones a través de asistentes anónimos. Cambian las herramientas, pero la falta de transparencia sigue siendo el verdadero problema.
Las herramientas de IA ya intervienen en tareas que antes requerían horas – y muchos ojos– de lectura y criterio experto: revisión y comparación de diferentes versiones de contratos, análisis de jurisprudencia, estimación de riesgos, generación de borradores procesales. Hoy, plataformas capaces de cribar miles de documentos en segundos se están convirtiendo en el nuevo estándar profesional y lo que ayer era excepción, casi una curiosidad, hoy es rutina. Plataformas como Luminance, que detecta riesgos en contratos complejos -esos que antes necesitaban de 25 profesionales buscándoles las vueltas-, o Harvey AI, el asistente legal que ya utilizan firmas como Allen & Overy -uno de los despachos de abogados más poderosos del mundo-, son solo ejemplos de esta transformación acelerada. Pero esto no significa necesariamente que la tecnología sea algo “bueno”.
Uno de los primeros problemas estructurales es el acceso desigual. Las tecnologías de LegalTech no son de libre acceso: requieren inversión, licencia, capacitación. Es decir, privilegio. Como siempre, los grandes despachos disponen de herramientas que permiten simular escenarios judiciales, modelar decisiones y afinar estrategias con una precisión técnica que multiplica sus ventajas. Mientras tanto, buena parte del resto del ecosistema —profesionales independientes, pequeños bufetes, incluso algunos operadores públicos— queda al margen. La vieja máxima de que «el buen abogado conoce la ley, pero el gran abogado conoce al juez» se está reescribiendo: hoy, el gran abogado tiene la IA más grande *guiño, guiño, codazo, codazo*.
El segundo problema es el sesgo. No es nuevo, pero es más peligroso cuando se enmascara bajo una supuesta neutralidad matemática. Los sistemas de IA aprenden de datos históricos: resoluciones, sentencias, doctrinas pasadas. Pero esos datos arrastran prejuicios, discriminaciones e inercias, cuando no directamente los intereses de los fondos que las han programado, que no desaparecen por ser digitalizados. La justicia algorítmica, lejos de corregir errores del pasado, tiende a reforzarlos. Y lo hace sin deliberación y sin responsabilidad. Lo que antes requería argumentación, ahora se ejecuta como una estadística. El sesgo se automatiza. Casos como el de ROSS Intelligence, cerrado tras una disputa legal con Thomson Reuters, muestran que incluso la infraestructura sobre la que se entrenan estas IA está sujeta a disputas de poder más que a principios de justicia.
Tercero: la dependencia técnica. A medida que normalizamos el uso de IA para tareas ordinarias y críticas, desplazamos la función argumentativa hacia lo automatizable. El criterio personal y profesional corre el riesgo de atrofiarse. El abogado, de transformarse en operador de plataforma, el juez en un periférico del algoritmo. Cuando el análisis de viabilidad lo ofrece una máquina, ¿qué espacio queda para el criterio, la intuición o incluso la creatividad jurídica? La profesión puede terminar reducida a una interfaz de resultados previsibles.
Y cuarto: la privacidad. Muchos sistemas de IA requieren subir documentación a la nube, compartir datos en servidores ajenos, aceptar condiciones de uso opacas. En ese proceso, lo que está en juego no es solo la confidencialidad, sino el núcleo mismo del secreto profesional. La eficiencia técnica no puede servir como coartada para vaciar de contenido los principios éticos básicos.
Nada de esto debería conducir a una posición tecnófoba o anti-maquinista. La IA, bien empleada, permite mejorar la calidad del trabajo, reducir errores, acelerar procesos y —potencialmente— democratizar el acceso al conocimiento jurídico. Pero para que eso ocurra, hay que regular. Hay que vigilar. Y hay que formar a todos sus operadores.
Es urgente una alfabetización jurídica y tecnológica conjunta. No solo saber usar estas herramientas, sino entender qué hacen, cómo lo hacen, y a qué renuncias se incurre al confiar en ellas. Transparencia algorítmica. Supervisión humana. Auditoría pública. Formación transversal. Y, sobre todo, una ética profesional que no se deje deslumbrar por la novedad.
El Derecho no puede reducirse a una operación de cálculo. La justicia no puede depender de una probabilidad. La argumentación jurídica no puede transformarse en la ejecución de patrones estadísticos. Si el modelo predictivo desplaza al criterio, el Derecho pierde su capacidad crítica. Y si esa pérdida se naturaliza, lo que queda es un simulacro de justicia: más veloz, más eficiente y obediente. Pero mucho menos justo.
El debate no es si la IA debe entrar en el Derecho: ya lo ha hecho. El debate real es si vamos a gobernarla o a permitir que nos gobierne. Si vamos a exigirle que rinda cuentas o vamos a obedecerla por comodidad. Si queremos un Derecho aumentado por la tecnología o una tecnología que devore el Derecho desde dentro. Esa batalla ya ha empezado. Y no podemos permitirnos llegar tarde.
Nos comen los roboces.
Las IAs, bien usadas, no dejan de ser un enorme índice con una búsqueda que relaciona temas y ya.Pero la gente confunde inteligencia, con respuestas, exactamente igual que en el Trivial.