Imagen referencial sobre abogados que usan Inteligencia Artificial.
Imagen referencial sobre abogados que usan Inteligencia Artificial.EXPRESO.

IA y abogados en Ecuador: cuándo la tecnología ayuda y cuándo puede costar sanciones

La verificación es clave, para evitar las "alucinaciones", señalan juristas que compartieron experiencias

La inteligencia artificial (IA) se ha convertido en una herramienta cada vez más utilizada por abogados en Ecuador y el mundo para agilizar tareas como el análisis de jurisprudencia y la sistematización de expedientes. Sin embargo, expertos advierten que su uso sin verificación puede derivar en errores graves, como la citación de sentencias inexistentes, que ya han provocado nulidades y sanciones en otros países.  

Especialistas coinciden en que la IA no reemplaza el criterio jurídico ni la responsabilidad profesional: es un apoyo que exige capacitación, supervisión humana y control de fuentes.

Santiago Acurio, abogado especializado en Derecho Digital y Penal, apunta que la IA generativa es valiosa para la administración de justicia, siempre con supervisión humana. Anota que sus colegas en España o Estados Unidos no tuvieron la precaución de verificar la veracidad de los datos, quizás por no saber que la IA puede alucinar (dar resultados incorrectos o engañosos). Eso ha provocado, comenta, que se declare la nulidad de las causas y que incluso se sancione con prohibición del ejercicio profesional.

”El Colegio de Abogados de Madrid presentó una guía de buenas prácticas de uso de la IA”, dice Acurio. Cree que la formación es el camino.

Inteligencia artificial

Inteligencia artificial: no es magia, es dirección (y puede dejarte en evidencia)

Leer más

Las experiencias de abogados en Ecuador con uso de IA

Para Annabell Guerrero, otra abogada, la IA es un recurso, que ayuda a organizar ideas y facilitar la recolección de información sobre qué han dicho los medios sobre un tema, por ejemplo. Cree que se corre el peligro de que se invente jurisprudencia. Por eso ella recurrirá más a buscadores de la Corte Interamericana de Derechos Humanos o de la Corte Constitucional. Le gustaría capacitarse para aprovecharla mejor.

La abogada María Dolores (Lolo) Miño lo usa para sistematizar expedientes con Notebook, para clasificar y recopilar jurisprudencia. El problema -dice- es cuando la IA reemplaza al pensamiento crítico o cuando se vende como propio algo hecho por la IA.

La jueza Janeth Chauvín no utiliza Inteligencia Artificial porque le parece riesgoso. “Fundamento mis resoluciones en jurisprudencia y normativas constitucionales legales y convencionales”, responde. Aunque considera que hace falta capacitación adecuada.

Hay que verificar la información que se obtiene de la Inteligencia Artificial

Por su parte, Luis Alberto Andrade, experto en contratación pública, cree que “hay que subirse a la ola” y usar la tecnología. Pero considera que la IA no sustituye al abogado. “Hay que verificar la información que genera”, subraya y además, verificar errores, que pueden surgir de “defectos en la pregunta o instrucción”.

Acuerdo global sobre IA

El mundo se da la mano para establecer límites antes de la 'superinteligencia'

Leer más

El uso de IA también exige profesionalismo, dice especialista de la UESS

Sebastián Vallejo dirige el Observatorio de Derecho Digital de la UEES. Al final el abogado -remarca- es responsable absoluto de todo lo que presenta en los procesos judiciales.  

Opina que quienes no verificaron que la Inteligencia Artificial se inventó sentencias les falta de capacitación, para implementar mecanismos de puesta a tierra, que eviten revisar manualmente sentencia por sentencia, para detectar errores; pero aterrizando la información vinculada con las citas y con las fuentes.

Para él, los límites éticos están en el profesionalismo versus la negligencia. “No es culpa de la IA, sería igual si se hace redactar argumentos a un pasante y no se revisa el trabajo”.

En la administración de justicia, donde cada palabra puede cambiar el destino de una persona, la tecnología puede acelerar procesos, pero la última firma -y la última responsabilidad- sigue siendo humana.

Sobre el conocimiento de legaltech habla Ramiro García

caso goleada
Ramiro García, abogado de Aquiles Álvarez, durante el caso Goleada.Expreso

Antes de contar con la IA, como académico, relata el penalista Ramiro García, máster en legaltech, trabajaba con un equipo de investigación de 10 estudiantes y cada uno leía un libro. Y en cinco días, trabajando ocho horas diarias, tenían el resumen. Ahora necesita uno, “mi asistente sube 10 o 30 libros y en 10 minutos está el resumen”. Desde el 2019 se involucró en un proyecto de modernización y transformación digital en Europa. 

Al pedirle ejemplos, García comentó que asesoró a otros abogados, que en Colombia trabajaban en un caso alrededor de un siniestro de tránsito. "Se me ocurrió pedir a un grupo de desarrolladores reproducirlo, en un video con IA. En los alegatos fue útil". ¿Cuál es el límite? “La dinamita es una bendición si se usa para abrir caminos, pero también puede servir para matar. La IA, como toda herramienta, mientras más potente es más peligrosa”.

Sin embargo dice que los errores se producen por vagancia. Recién preguntó a la IA sobre jurisprudencia para armar una acción de protección porque una junta de aguas le cortó el agua a un amigo. La IA le respondió con 17 sentencias y sus citas; él las revisó todas, 14 eran correctas y tres inventadas.

Contexto

En Ecuador todavía no se ha conocido sobre errores al usar IA entre abogados y jueces. Pero podría deberse a la falta de prolijidad por el exceso de casos, coinciden abogados.

¿Quieres acceder a todo el contenido de calidad sin límites? ¡SUSCRÍBETE AQUÍ!