Perú ha posicionado como pionero regional en regulación de IA: la Ley N° 31814 (entrada en vigor septiembre 2025) es primera ley integral de IA en América Latina, complementada por Ley N° 32314 (abril 2025) que penaliza delitos cometidos mediante IA. El Poder Judicial implementa «Curia» (2025), asistente de IA que reduce tiempo de análisis de expedientes de 3 horas a 1 minuto. Sin embargo, uso irresponsable de herramientas como ChatGPT por abogados genera sanciones internacionales: en 2023, abogados estadounidenses fueron multados $5,000 por presentar sentencias falsas generadas por IA. En Perú 2026, marco regulatorio establece clasificación de riesgos (prohibido/alto/aceptable), supervisión humana obligatoria, y responsabilidad estricta de profesionales que usan IA. Conversaciones con ChatGPT pueden ser accedidas por jueces en investigaciones penales (Art. 230 CPP). Sesgo algorítmico en justicia predictiva es riesgo crítico documentado: algoritmos entrenados con datos históricos perpetúan discriminación racial/género. Este análisis detalla regulación 2026, aplicaciones judiciales, responsabilidades legales, y cómo abogados deben usar IA responsablemente.
Marco Regulatorio: Ley 31814 y Ley 32314
Ley N° 31814: Marco General de IA (Vigente desde Septiembre 2025)
Perú es primer país de América Latina con ley integral de IA aprobada y reglamentada. Reglamento (Decreto Supremo N° 115-2025-PCM) entró en vigor 9 septiembre 2025.
«Promover el uso de la inteligencia artificial en favor del desarrollo económico y social del país, en un entorno seguro, centrado en la protección de las personas y el respeto de los derechos humanos.»
- Enfoque basado en riesgos: Clasificación de sistemas de IA por nivel de riesgo
- Transparencia y supervisión humana: Obligatoriedad de revelar que se usa IA; supervisión humana es mandatoria
- Protección de derechos fundamentales: Prohíbe usos que vulneren derechos (discriminación, vigilancia masiva, manipulación)
- Responsabilidad clara: Definición de quién es responsable por decisiones de IA
Clasificación de Sistemas de IA por Riesgo (Art. 5-7 Reglamento)
Sistema 1: RIESGO PROHIBIDO (Explícitamente Vetado)
Sistemas que se prohíben completamente:
- Vigilancia biométrica masiva en espacios públicos (sin orden judicial)
- Manipulación del comportamiento humano con intención dañosa
- Calificación social («sistema de crédito social» chino-style)
- Utilización de datos genéticos para discriminación
Consecuencia: Suspensión inmediata de operaciones; sanciones civiles, administrativas y penales
Sistema 2: RIESGO ALTO (Muy Regulado – Supervisión Estricta)
Sistemas que pueden usarse SOLO bajo condiciones muy estrictas:
- Sistemas de justicia predictiva (predecir sentencias, riesgo reincidencia)
- Sistemas de clasificación crediticia
- Decisiones de contratación laboral
- Evaluaciones de salud mental o capacidad
- Auditoría de impacto en derechos humanos: Antes de implementación
- Transparencia total: Usuario debe saber que decisión fue tomada por IA
- Derecho a explicación: Afectado tiene derecho a saber por qué IA decidió X
- Supervisión humana efectiva: Humano puede rechazar recomendación de IA con justificación
- Documentación exhaustiva: Registro de cómo funciona sistema, datos usados, auditorías
Ejemplo aplicable en Perú: Si Poder Judicial usa algoritmo para predecir riesgo de fuga en prisión preventiva, debe cumplir estos requisitos (auditoría que algoritmo no tiene sesgo racial, transparencia, etc.)
Sistema 3: RIESGO ACEPTABLE (Supervisión Moderada)
Sistemas con impacto mínimo o nulo en derechos fundamentales:
- Chatbots de atención al cliente
- Sistemas de recomendación e-commerce
- Filtros de spam
- Asistentes virtuales de consulta general
- Principio de transparencia: Informar usuario que interactúa con IA (no hacerle creer que habla con humano)
- Protección de datos: Cumplir normativa de privacidad
Ejemplo: Chatbot «Curia» del Poder Judicial (asistente a jueces, no decide) entra en esta categoría
Ley N° 32314: Agravantes Penales por Uso de IA en Delitos (Vigente desde Abril 2025)
Perú dicta primera ley que penaliza específicamente delitos cometidos con IA. Modifica Código Penal para incluir uso de IA como «agravante» (factor que aumenta pena).
Artículo 46 Código Penal modificado: Cuando delito se comete usando IA, juez puede aumentar pena hasta en 1/3 por encima del máximo legal.
Ejemplo:
| Delito | Pena Máxima Normal | Pena Máxima con IA | Aumento |
|---|---|---|---|
| Difamación por deepfake | 3 años | 4 años | +33% |
| Estafa usando IA para suplantar voz | 6 años | 8 años | +33% |
| Pornografía infantil (imágenes generadas IA) | 8 años | 10.6 años | +33% |
| Plagio mediante IA | 2 años | 2.6 años | +33% |
Delitos Específicos Incluidos en Ley 32314
- Deepfakes y manipulación de imagen/voz/audio
- Crear video falso de persona para difamar, suplantarla o extorsionar
- Ejemplo: Video deepfake de político supuestamente diciendo insultos
- Pena base: difamación + agravante IA = +33%
- Suplantación de Identidad Automatizada
- Usar IA para clonar voz, firma, biometría
- Ejemplo: Sistema que simula voz de ejecutivo para fraude telefónico
- Pena base: estafa + agravante IA = +33%
- Pornografía Infantil (Generada o Manipulada por IA)
- Crear imágenes/videos de menores mediante IA (aunque nunca existieron)
- Pena base: hasta 8 años; con IA: hasta 10.6 años
- Plagio y Violación de Derechos de Autor
- Usar IA para plagiar obras protegidas masivamente
- Pena base: 2 años; con IA: 2.6 años
- Delitos Informáticos Ejecutados con IA
- Ataques cibernéticos, ransomware, distribución de malware
- Pena base: varía; agravante IA +33%
Aplicaciones de IA en el Sistema Judicial Peruano 2026
«Curia»: Asistente de IA para Jueces (Enero 2025)
Poder Judicial presentó «Curia», asistente virtual basado en IA generativa diseñado para agilizar redacción de resoluciones judiciales. Desarrollado por Corte Suprema (Quinta Sala Derecho Constitucional).
- Input: Juez carga expediente al sistema
- Análisis: Curia analiza hechos, normas aplicables, jurisprudencia relevante
- Output: Genera borrador de resolución con fundamentación legal
- Entrenamiento: Modelo IA entrenado con jurisprudencia peruana + Código Penal + Código Civil
- Antes: Análisis expediente + redacción resolución = 3 horas promedio
- Con Curia: Análisis + redacción = 1 minuto promedio
- Reducción: 99.4% de tiempo ahorrado
Ventajas según Poder Judicial:
- Rapidez: Reduce congestión judicial
- Coherencia: Minimiza inconsistencias en fallos
- Predictibilidad: Abogados pueden anticipar argumentos judiciales
- Transparencia: Resoluciones mejor fundamentadas
«Curia es herramienta de apoyo; juez mantiene autonomía plena. Juez puede rechazar recomendación de Curia si justifica adecuadamente. IA no reemplaza juez; complementa su labor.»
IUDEX IA: Proyecto Piloto en Módulos Orales Civiles (2024+)
Sistema de IA para agilizar análisis de expedientes y calificación de demandas en procesos civiles con oralidad.
Fase: Piloto en módulos de litigación oral (Lima, Arequipa, Callao, Trujillo)
Estatus 2026: En evaluación; aún no implementación plena
Responsabilidad Legal de Abogados que Usan IA
El Principio: «Abogado es Siempre Responsable»
Jurisprudencia Internacional & Peruana:
Tribunal de Justicia de Navarra (España) y múltiples fallos señalan:
«Los abogados que utilizan IA tienen el deber indelegable de comprobar exhaustivamente la veracidad de cualquier información, cita legal, o contenido generado por la herramienta antes de presentarlo ante corte. El abogado es responsable de los productos de trabajo generados usando IA.»
Razón: IA es herramienta; responsabilidad legal permanece en abogado, no en máquina.
Casos Internacionales que Marcaron Precedente
Caso 1: Schwartz vs. Avianca (USA, 2023) – $5,000 Multa
- Abogado Steven Schwartz presentó escrito judicial citando 6 sentencias inexistentes
- Demanda contra aerolínea Avianca por lesión de pasajero
- ChatGPT fue usado para generar argumentos; abogado no verificó
- Juez descubrió: casos «citados» nunca existieron en base de datos judicial
- Multa: $5,000
- Razón: Mala fe procesal; abogado admitió no verificar
«Nunca antes había usado una herramienta de este tipo y no era consciente de la posibilidad de que su contenido pudiese ser falso.»
Juez respuesta: «Eso es precisamente el problema. Deber diligencia es verificar.»
Caso 2: Tribunal de Justicia de Navarra (España, 2024) – Sin Sanción (Pero Advertencia Severa)
- Abogado presentó querella escrita por ChatGPT
- Querella contenía referencia al Código Penal de Colombia (no España)
- Evidencia de que IA alucinó/confundió jurisprudencia
- Archivo del caso (sin multa)
- PERO: Tribunal advirtió severamente sobre riesgos éticos/legales
«El uso de tecnologías emergentes como la IA en ámbito legal no está exento de consideraciones éticas y legales. Abogados son responsables de revisar y validar documentos legales para garantizar precisión y cumplimiento normativo.»
Riesgos Específicos de Usar ChatGPT en Derecho
Problema 1: «Alucinaciones» (Contenido Inventado)
ChatGPT a veces genera:
- Sentencias que no existen
- Leyes que nunca se promulgaron
- Citas a artículos incorrectos
Ejemplo Real: Preguntaste a ChatGPT «¿Existe sentencia X sobre Y?» y responde «Sí, caso Z-123-2020» = sentencia es inventada
Problema 2: Información Desactualizada
- ChatGPT fue entrenado hasta cierta fecha (no en tiempo real)
- Ley nueva (2025) no está en base datos ChatGPT
- Abogado cita jurisprudencia antigua; pierde caso en apelación
Problema 3: Información Jurídica No-Fiable
- ChatGPT obtiene información de fuentes no verificadas
- Cita doctrina sin validar si es de experto real
- Genera análisis legal que suena plausible pero es errado
Problema 4: Conflicto de Interés Digital
- 2 partes opuestas en litigio usan mismo ChatGPT
- Ambas reciben argumentos similares = sesgo potencial
- Aunque ChatGPT sea neutral, apariencia de conflicto existe
Problema 5: Privacidad / Filtrado de Datos Confidenciales
- Abogado carga información confidencial del cliente en ChatGPT
- ChatGPT puede usar esa información para entrenar futuros modelos
- Violación confidencialidad cliente + protección datos
Responsabilidad Legal en Perú: Aplicación 2026
- Código Penal Art. 406-409: Responsabilidad profesional
- Abogado que actúa negligentemente puede responder penalmente
- Código de Ética del Abogado: Deber de diligencia
- Abogado debe verificar información que presenta
- Código Procesal Civil Art. 283-284: Conducta procesal
- Falsa presentación de derecho = abuso procesal; sanción posible
Régimen de Sanciones Potenciales:
| Falta | Sanción Posible |
|---|---|
| Usar ChatGPT sin verificar, citar sentencia falsa | Amonestación, suspensión temporal, multa |
| Presentar escrito con contenido IA sin revelar | Denuncia disciplinaria ante Colegio Abogados |
| Negligencia grave (pierde caso por IA mala usada) | Responsabilidad civil por daños a cliente |
| Perjurio/falso testimonio (cita falsa deliberada) | Delito penal (6-8 años) + inhabilitación profesional |
Privacidad: ¿Puede Juez Acceder Conversaciones ChatGPT?
Respuesta Legal: SÍ, Bajo Condiciones
Jurisprudencia Peruana (2025):
Penalistas consultados unanimes: Juez sí puede ordenar acceso a conversaciones ChatGPT si es necesario para investigación penal y existe sospecha razonable de que conversación contiene evidencia de delito.
Base Legal: Artículo 230 Código Procesal Penal
«El juez puede levantar el secreto de comunicaciones cuando existe sospecha fundada de delito. Esto incluye conversaciones con chatbots de IA.»
Protección Legal de Conversaciones ChatGPT
- NO: «Secreto de comunicaciones» (eso aplica a mensajes entre personas: WhatsApp, email, SMS)
- SÍ: «Derecho a la intimidad personal» (conversación con bot no es «comunicación» bilateral)
Razón: Conversar con máquina ≠ conversar con persona; no hay derecho bilateral protegido
Cuándo Juez Puede Ordenar Acceso
Criterio: Proporcionalidad + necesidad
Juez puede ordenar acceso si:
- Existe sospecha razonable de delito
- Conversación ChatGPT probablemente contiene evidencia
- No hay alternativa menos invasiva de privacidad
- Orden es motivada (juez explica por qué)
- Investigación por pedofilia
- Acusado consultó ChatGPT: «Cómo atraer niños en redes»
- Juez ordena: «Acceso a conversaciones ChatGPT de acusado»
- = Legal; conversación es evidencia indicio de delito
Ejemplo Prohibido:
- Investigación por corrupción
- Juez ordena: «Acceso a todas conversaciones ChatGPT de todos abogados del Ministerio de Justicia»
- = Ilegal; muy invasivo; alternativas menos intrusivas existen
Sesgo Algorítmico en Justicia Predictiva: Riesgo Crítico
El Problema: Algoritmos Perpetúan Discriminación
Cuando algoritmos se entrenan con datos históricos de decisiones judiciales, heredan sesgos sistemáticos contenidos en esos datos:
- Sesgo Racial: Algoritmo predice «mayor riesgo reincidencia» para afrodescendientes (porque datos históricos muestran que fueron condenados más frecuentemente, no porque realmente sean más delincuentes)
- Sesgo de Género: Algoritmo favorece hombres en decisiones laborales (porque datos históricos muestran contratación sesgada)
- Sesgo Socioeconómico: Algoritmo niega crédito a pobres (porque datos históricos muestran tasas de morosidad más altas en ese grupo)
Efecto: Algoritmo aparentemente «neutral» perpetúa/amplifica discriminaciones históricas
Casos de Sesgo Algoritmo Documentados
Caso 1: Sistema de Evaluación de Riesgo Penitenciario (USA)
- Algoritmo usaba para predecir riesgo reincidencia en libertad condicional
- Auditoría reveló: tasa de falsos positivos 45% MAYOR para afrodescendientes
- Tribunal anuló uso de algoritmo; causó indefensión
Caso 2: Sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions)
- Empresa Northpointe desarrolló algoritmo predecir reincidencia
- Usado en cortes USA para sentencias y libertad condicional
- ProPublica investigó: algoritmo etiquetaba afrodescendientes como «alto riesgo» cuando blanco sería «bajo riesgo» en caso idéntico
Caso 3: Sistema SyRI de Holanda (Fraude de Bienestar Social)
- Gobierno usó IA para predecir beneficiarios fraude
- Tribunal declaró ilegal: «Sistema opaco; no se puede verificar; Estado mantiene en secreto cómo calcula riesgo»
- Razón fundamental: falta transparencia; ciudadanos no pueden saber por qué algoritmo los clasificó como «riesgo»
Riesgos de Justicia Predictiva en Perú 2026
Si Poder Judicial usa Curia o similar para predecir sentencias:
- ¿Fue algoritmo auditado por sesgos?
- ¿Se entrenó con jurisprudencia que ya tenía sesgos (ej. raciales)?
- ¿Pueden afectados saber por qué algoritmo recomendó X sentencia?
- ¿Pueden abogados cuestionar recomendación de IA?
- Auditoría de impacto en derechos humanos antes de uso
- Supervisión humana; juez puede rechazar recomendación
- Transparencia: afectado tiene derecho a explicación
Recomendaciones: Uso Responsable de IA por Abogados 2026
En Escritos Judiciales
✅ PERMITIDO y RECOMENDADO:
- Usar ChatGPT para borrador inicial de escrito (luego revisar/editar)
- Usar IA para búsqueda de jurisprudencia (confirmar después)
- Usar IA para revisar ortografía/gramática
- Usar IA como «adversarial check» (IA argumenta contra ti; mejoras tu defensa)
❌ PROHIBIDO/RIESGO:
- Presentar argumento generado por IA sin verificación manual
- Citar sentencias sin confirmar en base de datos judicial oficial
- Copiar-pegar contenido IA sin revisión
- Usar IA para lenguaje que no conoces bien (te expones a errores)
En Consultoría a Clientes
✅ BUENA PRÁCTICA:
- Revelar al cliente si usaste IA en análisis
- Verificar todo resultado IA con fuente primaria (ley, jurisprudencia)
- No depositar confianza exclusiva en IA; IA es herramienta, no experto
❌ MALA PRÁCTICA:
- Enviar respuesta generada por ChatGPT sin edición a cliente
- Asumir que IA tiene información actualizada (siempre verifica leyes nuevas)
- Usar IA para analizar privacidad cliente sin protección de datos
Protocolo de Verificación Propuesto
Antes de cualquier presentación ante corte con contenido IA:
- Checklist de Verificación:
- ¿Cada cita legal está confirmada en fuente oficial?
- ¿Cada precedente existe en jurisprudencia actualizada?
- ¿Cada ley referida está vigente (no derogada)?
- ¿He revisado personalmente cada argumento?
- ¿Hay inconsistencias entre lo que IA generó y lo que yo sé del caso?
- Segundo Abogado (Para Casos Importantes):
- Segundo abogado revisa todo contenido IA
- Valida de forma independiente
- Firma de validación junto con primero
- Notificación al Tribunal:
- Considerar si es ético revelar que escrito fue asistido por IA
- (No obligatorio legalmente en Perú 2026; pero recomendado para transparencia)
IA en Derecho Peruano es Oportunidad + Riesgo
La realidad 2026:
- Oportunidad: Perú lidera regulación IA en Latinoamérica; Poder Judicial moderniza con Curia
- Riesgo: Abogados que usan IA negligentemente enfrentan sanciones disciplinarias, civiles, penales
- Tendencia: Responsabilidad legal de profesionales que usan IA es MÁXIMA (no comparten responsabilidad con máquina)
- Sesgo: Justicia predictiva basada en IA puede perpetuar discriminación si no se audita
Mejor Práctica 2026: IA es herramienta poderosa pero requiere verificación humana exhaustiva. Abogado que delega responsabilidad al algoritmo y luego dice «ChatGPT se equivocó» es responsable totalmente.
