La inteligencia artificial jurídica bajo escrutinio empírico y epistémico
DOI:
https://doi.org/10.5281/zenodo.15959496Palabras clave:
inteligencia artificial, derecho, alucinaciones legales, injusticia epistémica, verificación automatizadaResumen
Este estudio examinó críticamente las alucinaciones legales generadas por sistemas de inteligencia artificial aplicados en contextos jurídicos. El objetivo principal fue doble: cuantificar la frecuencia y los tipos de errores producidos por modelos generalistas y especializados, y analizar las implicaciones éticas y epistémicas derivadas. Se adoptó un diseño cuasi-experimental comparativo, empleando un corpus de 200 escenarios jurídicos estructurados según el método IRAC. Se evaluaron cuatro sistemas: dos modelos generalistas (ChatGPT 4 y Llama 2) y dos herramientas jurídicas con recuperación aumentada de información (Lexis+ AI y Westlaw AI). La recolección de datos incluyó codificación manual por juristas y análisis automatizado mediante entropía semántica y sondas específicas. Los resultados mostraron que los modelos generalistas presentaron tasas significativamente más altas de alucinaciones, siendo las citas jurídicas inventadas el error más recurrente. El sistema automatizado obtuvo precisión aceptable para detectar inconsistencias, con métricas satisfactorias respecto a la codificación humana. Estas fallas no solo implican un riesgo técnico, sino que configuran una forma emergente de injusticia epistémica, al comprometer el acceso a información verificada y debilitar la confianza en el conocimiento jurídico. Se concluye que resulta necesario incorporar mecanismos de validación epistémica en la inteligencia artificial jurídica y establecer marcos normativos que aseguren un uso responsable de estas tecnologías en la práctica forense y académica.
Descargas
Referencias
Bench-Capon, T., Prakken, H., & Sartor, G. (2022). Artificial intelligence and legal reasoning: Past, present and future. Artificial Intelligence, 303, 103644. https://doi.org/10.1016/j.artint.2021.103644
Dahl, M., Magesh, V., Suzgun, M., & Ho, D. E. (2024). Large legal fictions: Profiling legal hallucinations in large language models. Journal of Legal Analysis, 16(1), 64–93. https://doi.org/10.1093/jla/laae003
Farquhar, S., Kossen, J., Kuhn, L., & Gal, Y. (2024). Detecting hallucinations in large language models using semantic entropy. Nature, 630(8017), 625–630. https://doi.org/10.1038/s41586-024-07421-0
Fricker, M. (2007). Epistemic injustice: Power and the ethics of knowing. Oxford University Press.
Kay, J., Kasirzadeh, A., & Mohamed, S. (2024). Epis temic injustice in generative AI. arXiv. https://doi.org/10.48550/arXiv.2408.11441
Kossen, J., Han, J., Razzak, M., Schut, L., Malik, S., & Gal, Y. (2024). Semantic entropy probes: Robust and che ap hallucination detection in LLMs. arXiv. https://doi.org/10.48550/arXiv.2406.15927
Langton, R. (2010). Epistemic injustice: Power and the ethics of knowing. https://www.jstor.org/stable/40602716
Latif, Y. A. (2025). Hallucinations in large language models and their influence on legal reasoning: Examining therisks of AI-generated factual inaccuracies in judicial processes. Journal of Computational Intelligence, Machine Reasoning, and Decision-Making, 10(2), 10–20. https://morphpublishing.com/index.php/JCIMRD/article/view/2025-02-07
Magesh, V., Surani, F., Dahl, M., Suzgun, M., Manning, C. D., & Ho, D. E. (2024). HallucinationFree? Assessing the reliability of leading AI legal research tools. arXiv. https://doi.org/10.48550/arXiv.2405.20362
Mollema, W. J. T. (2024). A taxonomy of epistemic injustice in the context of AI and the case for generative hermeneutical erasure. PhilPapers. http://philpapers.org/archive/MOLATO-5
Surden, H. (2018). Artificial intelligence and law: An overview. Georgia State University Law Review, 35, 1305. https://heinonline.org/HOL/LandingPage?handle=hein.journals/gslr35&div=59&id=&page=
Taimur, A. (2025). Manipulative phantoms in the machine: A legal examination of large language model hallucinations on human opinion formation. En IFIP International Summer School on Privacy and Identity Management (pp. 59–77). Springer. https://doi.org/10.1007/978-3-031-91054-8_3
UNESCO. (2021). Recommendation on the ethics of artificial intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000381137
Publicado
Declaración de disponibilidad de datos
Los conjuntos de datos utilizados y/o analizados durante el presente estudio están disponibles a través del autor correspondiente previa solicitud razonable.
Número
Sección
Licencia
Derechos de autor 2025 Oscar A. Muñoz (Author)

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.