Miercoles 15 de mayo de 2024 | Suscríbete al Newsletter de La Ley

¿El Código Procesal Civil permite usar ChatGPT para asistir al juez durante el proceso? (Órganos de auxilio judicial)

¿El Código Procesal Civil permite usar ChatGPT para asistir al juez durante el proceso? (Órganos de auxilio judicial)

Por Redacción Laley.pe

martes 25 de abril 2023

Loading

Loading

El uso de la inteligencia artificial aplicado a las sentencias judiciales ha encendido un interesante debate en la comunidad jurídica del Perú.

Por un lado, hay quienes sostienen que nuestra legislación tendría que adaptarse al uso de estas herramientas de IA como ChatGPT, sin embargo, la academía aún no logra consensos: otros abogados indican que solo se trata de una «herramienta limitada» que ofrece resultados relacionados a la información de su base de datos. Nuestra legislación no debería modificarse por su aparición, aseguran.

Aun así, todas estas posturas coinciden en que la decisión final de adoptar las recomendaciones de ChatGPT recaen sobre el magistrado que emite la sentencia.

Sin embargo, en el artículo 55 del Código Procesal Civil se establece que los jueces pueden disponer de órganos de auxilio judicial: actores que tienen como finalidad apoyar a los órganos jurisdiccionales a desarrollar un acto procesal determinado, dada la función o especialidad con la que cuenta.

¿Es ChatGPT un órgano de auxilio judicial?

Esta atrevida, pero interesante pregunta se inspira en el artículo 55 del Código Procesal Civil que indica lo siguiente sobre los órganos de auxilio judicial:

Artículo  55.- Órganos de auxilio judicial

Son órganos de auxilio judicial: el perito, el depositario, el interventor, el martillero público, el curador procesal, la policía y los otros órganos que determine la ley.

Este artículo no enlista a las inteligencias artíficiales como un órganos de auxilio judicial, sin embargo, a la fecha existe un precedente de que ChatGPT «asistió» a un juez peruano para resolver una sentencia. Se trata del magistrado Frank Flores García a cargo del Juzgado Civil Transitorio de San Juan de Miraflores.

En ese sentido, La Ley compiló las opiniones de cuatro abogados: el juez autor de la primera sentencia con ChatGPT en el Perú, Juan Flores García; Erick Iriarte, abogado especialista en asuntos informáticos; Fátima Toche, abogada experta en derecho de las tecnologías y Martín Mejorada, profesor en derecho civil.

Frank Flores: «No puede ser considerado un órgano de auxilio judicial»

El juez Frank Paul Flores García del Juzgado Civil Transitorio de San Juan de Miraflores resolvió un proceso de alimentos, luego de que ChatGPT le sugiriera aplicar una operación matemática: en concreto, una técnica de proporción matemática para fijar el aporte que cada padre, de acuerdo a sus ingresos, tendría que disponer para la manutención de su hija.

Durante una entrevista con La Ley indicó que ChatGPT no puede ser considerado un órgano de auxilio judicial, pues se trata de una herramienta complementaria de trabajo. Es una tecnología de la información que sirve de ayuda y no debería adecuarse la legislación peruana para usarla dentro del sistema de justicia.

«La IA es una herramienta, una tecnología de la información muy avanzada. Sin embargo, no deja de ser una tecnología de la información, por lo que su uso es complementariocomo herramienta de apoyo«.

«No debería modificarse el Código Procesal Civil para hacer uso de ella. Yo creo que la regulación debería estar destinada a comptenlar las limitaciones de su uso y sus alcances dentro del sistema de justicia».

«Las tecnologías de la información como herramienta son útiles para cualquier trabajo sin necesidad de una regulación legal que permita su uso. Sí se debe determinar sus alcances y limitaciones».

Erick Iriarte: «La decisión de lo que se resuelva siempre debe recaer sobre el juez»

El abogado Erick Iriarte Ahon es uno de los especialistas en derecho informático más importantes del país. En diálogo con La Ley explicó que la inteligencia artificial establece sus resultados en el análisis de promedio que hace el software sobre una amplia base de datos. Sin embargo, herramientas como ChatGPT tienen una data más limitada que la de un buscador como Google.

Es por esa razón que los programas de IA como ChatGPT pueden ser utilizados por los jueces y cualquier persona. Sin embargo, el criterio de una sentencia siempre recae sobre el magistrado.

«Si un juez utiliza el instrumento es bajo la responsabilidad del juez. Siempre va a ser así. Chat GPT es una herramienta que le ayuda a investigar fácilmente«. 

«El valor intelecutal del ser humano es no copiar lo que le dice una máquina, sino compararlo y validarlo. No debemos creer estrictamente lo que nos dice ChatGPT».

 «Es así que mal haría cualquier juez en usar un criterio de ChatGPT para establecerlo en una sentencia sin comprobarlo porque de esa forma el juez pierde la perspectiva de su propia labor»

Martín Mejorada: «La legislación procesal en el Perú no está preparada»

El abogado civilista Martín Mejorada se pronunció sobre este tema a través de las redes sociales. En un video de TikTok sostuvo que la legislación procesal de nuestro país no está preparada para adoptar a las herramientas de IA como órganos de auxilio judicial.

«La IA es una herramienta que está en nuestra vida cotidiana. Ha llegado para quedarse. Es el futuro y asiste, en muchos casos, de manera adecuada a toda actividad humana y será un instrumento de apoyo para los servicios legales y también para la atención de los servicios de justicia». 

«Sin embargo, hay que llamar la atención sobre lo siguiente. La legislación procesal del Perú no está preparada para recibir esta propuesta. No está previsto el uso de plataformas de inteligencia artificial».

«Ciertamente esta plataforma no es solamente una fuente de datos, también es un verdadero mecanismo de razonamiento artificial que proporciona decisiones razonadas que el juez hace suyas para incorporarlas en la sentencia con el caso». 

Fátima Toche Vega: «Hasta que no se encuentre una forma en la que realmente aporte no debería ser considerado como un órgano de auxilio judicial»

En diálogo con Fátima Toche Vega, abogada experta en derecho de las tecnologías, respondió a la pregunta del titular y sostuvo que ChatGPT no debería ser considerado un órgano de auxilio judicial:

La información de ChatGPT no está actualizada, su fecha de corte es hasta el 2021, su fuente es internet y emite respuestas ad hoc a los parámetros de la pregunta formulada, con lo cual la información puede tener falsedades o desinformación de toda la información que circula en internet. Es irresponsable y podría dejar en indefensión a las partes procesales si ChatGPT se usa sin mayor reflexión o contraste de la información. Las tecnologias en la función judicial deben utilizarse de manera responsable y de forma que aporten valor, no solo por indicar que «usé chat GPT y soy cool o estoy al día en tecnología». Hasta que no se encuentre una forma en la que realmente aporte no debería ser considerado como un órgano de auxilio judicial. 

Renzo Vásques Villacorta: «ChatGPT no reemplaza la fundamentación del juez: no se puede fundamentar una decisión en el razonamiento de la IA»

Una IA no puede ser considerada un órgano de auxilio judicial, ya que carece de la capacidad de ser un actor de apoyo ante la evidente ausencia de personalidad jurídica.  

Al respecto, una IA solo puede considerarse como una herramienta judicial (en el caso de los jueces), esencialmente en la redacción y construcción de una resolución, como se empleó en el caso colombiano: un apoyo en la redacción de los fundamentos jurisdiccionales que no reemplaza la fundamentación del juez, quien tampoco puede fundamentar su decisión en el razonamiento de la IA.


Le preguntamos ChatGPT lo siguiente: ¿Qué cuidados tendría que tener un juez que decida usar ChatGPT como apoyo en la resolución de un caso?

Respuesta: Si un juez decide usar ChatGPT como apoyo en la resolución de un caso, es importante que tome las siguientes diligencias:

  1. Evaluar la idoneidad de ChatGPT para el caso: El juez debe evaluar si ChatGPT es una herramienta adecuada para el caso en cuestión. La herramienta debe ser capaz de proporcionar información relevante y confiable sobre el asunto en cuestión.
  2. Verificar la precisión de la información: El juez debe verificar la precisión de la información proporcionada por ChatGPT. Es importante recordar que, aunque ChatGPT está programado para proporcionar respuestas precisas, su base de datos puede contener información inexacta o incompleta.
  3. Considerar la naturaleza de la información: El juez debe considerar la naturaleza de la información proporcionada por ChatGPT. Es importante recordar que la información proporcionada por ChatGPT puede no tener en cuenta todos los factores relevantes del caso y puede no ser aplicable a todas las situaciones.
  4. Evaluar la confidencialidad: El juez debe evaluar la seguridad y confidencialidad de la información proporcionada por ChatGPT. Es importante asegurarse de que la información del caso sea tratada de manera confidencial y que no sea compartida con terceros no autorizados.
  5. Tomar la decisión final: Aunque ChatGPT puede proporcionar información relevante y apoyo en la toma de decisiones, es importante recordar que el juez es responsable de tomar la decisión final en el caso. La decisión final debe estar basada en la evidencia presentada en el caso, la jurisprudencia y las leyes aplicables, y no solo en la información proporcionada por ChatGPT.

En resumen, antes de usar ChatGPT como apoyo en la resolución de un caso, el juez debe evaluar la idoneidad de la herramienta, verificar la precisión de la información, considerar la naturaleza de la información, evaluar la confidencialidad y tomar la decisión final basada en la evidencia presentada en el caso.

[Img #35442]

NEWSLETTER DE LA LEY.PE

NOTICIAS RELACIONADAS