La inteligencia artificial jurídica bajo escrutinio empírico y epistémico

Autores/as

DOI:

https://doi.org/10.5281/zenodo.15959496

Palabras clave:

inteligencia artificial, derecho, alucinaciones legales, injusticia epistémica, verificación automatizada

Resumen

Este estudio examinó críticamente las alucinaciones legales generadas por sistemas de inteligencia artificial aplicados en contextos jurídicos. El objetivo principal fue doble: cuantificar la frecuencia y los tipos de errores producidos por modelos generalistas y especializados, y analizar las implicaciones éticas y epistémicas derivadas. Se adoptó un diseño cuasi-experimental comparativo, empleando un corpus de 200 escenarios jurídicos estructurados según el método IRAC. Se evaluaron cuatro sistemas: dos modelos generalistas (ChatGPT 4 y Llama 2) y dos herramientas jurídicas con recuperación aumentada de información (Lexis+ AI y Westlaw AI). La recolección de datos incluyó codificación manual por juristas y análisis automatizado mediante entropía semántica y sondas específicas. Los resultados mostraron que los modelos generalistas presentaron tasas significativamente más altas de alucinaciones, siendo las citas jurídicas inventadas el error más recurrente. El sistema automatizado obtuvo precisión aceptable para detectar inconsistencias, con métricas satisfactorias respecto a la codificación humana. Estas fallas no solo implican un riesgo técnico, sino que configuran una forma emergente de injusticia epistémica, al comprometer el acceso a información verificada y debilitar la confianza en el conocimiento jurídico. Se concluye que resulta necesario incorporar mecanismos de validación epistémica en la inteligencia artificial jurídica y establecer marcos normativos que aseguren un uso responsable de estas tecnologías en la práctica forense y académica.

Descargas

Los datos de descarga aún no están disponibles.

Referencias

Bench-Capon, T., Prakken, H., & Sartor, G. (2022). Artificial intelligence and legal reasoning: Past, present and future. Artificial Intelligence, 303, 103644. https://doi.org/10.1016/j.artint.2021.103644

Dahl, M., Magesh, V., Suzgun, M., & Ho, D. E. (2024). Large legal fictions: Profiling legal hallucinations in large language models. Journal of Legal Analysis, 16(1), 64–93. https://doi.org/10.1093/jla/laae003

Farquhar, S., Kossen, J., Kuhn, L., & Gal, Y. (2024). Detecting hallucinations in large language models using semantic entropy. Nature, 630(8017), 625–630. https://doi.org/10.1038/s41586-024-07421-0

Fricker, M. (2007). Epistemic injustice: Power and the ethics of knowing. Oxford University Press.

Kay, J., Kasirzadeh, A., & Mohamed, S. (2024). Epis temic injustice in generative AI. arXiv. https://doi.org/10.48550/arXiv.2408.11441

Kossen, J., Han, J., Razzak, M., Schut, L., Malik, S., & Gal, Y. (2024). Semantic entropy probes: Robust and che ap hallucination detection in LLMs. arXiv. https://doi.org/10.48550/arXiv.2406.15927

Langton, R. (2010). Epistemic injustice: Power and the ethics of knowing. https://www.jstor.org/stable/40602716

Latif, Y. A. (2025). Hallucinations in large language models and their influence on legal reasoning: Examining therisks of AI-generated factual inaccuracies in judicial processes. Journal of Computational Intelligence, Machine Reasoning, and Decision-Making, 10(2), 10–20. https://morphpublishing.com/index.php/JCIMRD/article/view/2025-02-07

Magesh, V., Surani, F., Dahl, M., Suzgun, M., Manning, C. D., & Ho, D. E. (2024). HallucinationFree? Assessing the reliability of leading AI legal research tools. arXiv. https://doi.org/10.48550/arXiv.2405.20362

Mollema, W. J. T. (2024). A taxonomy of epistemic injustice in the context of AI and the case for generative hermeneutical erasure. PhilPapers. http://philpapers.org/archive/MOLATO-5

Surden, H. (2018). Artificial intelligence and law: An overview. Georgia State University Law Review, 35, 1305. https://heinonline.org/HOL/LandingPage?handle=hein.journals/gslr35&div=59&id=&page=

Taimur, A. (2025). Manipulative phantoms in the machine: A legal examination of large language model hallucinations on human opinion formation. En IFIP International Summer School on Privacy and Identity Management (pp. 59–77). Springer. https://doi.org/10.1007/978-3-031-91054-8_3

UNESCO. (2021). Recommendation on the ethics of artificial intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000381137

Publicado

2025-07-31

Declaración de disponibilidad de datos

Los conjuntos de datos utilizados y/o analizados durante el presente estudio están disponibles a través del autor correspondiente previa solicitud razonable.

Número

Sección

Artículos originales

Cómo citar

Muñoz, . O. A. (2025). La inteligencia artificial jurídica bajo escrutinio empírico y epistémico. Journal of Law and Epistemic Studies, 3(2), 13-18. https://doi.org/10.5281/zenodo.15959496

Artículos similares

1-10 de 29

También puede Iniciar una búsqueda de similitud avanzada para este artículo.