
El uso de IA en crímenes: el caso de la abogada de Sauces 9 plantea un nuevo desafío
La presunta utilización de inteligencia artificial para encubrir el crimen plantea un nuevo desafío
El 16 de octubre de 2025, la Policía Nacional halló el cuerpo descuartizado de la abogada Martha Cecilia Solís, de 47 años, dentro de un departamento en Sauces 9, norte de Guayaquil. Los restos fueron encontrados en una lavadora y un balde plástico, tras 12 días de reportada como desaparecida.
La principal sospechosa es su hija, Andreína, quien fue detenida y enfrenta prisión preventiva por presunta responsabilidad en el asesinato. El caso, ya estremecedor por la violencia del acto, adquirió otra dimensión cuando la Fiscalía reveló que la sospechosa habría intentado usar herramientas de inteligencia artificial (IA) para simular mensajes y audios de la víctima, con el fin de hacer creer a familiares y allegados que seguía con vida.
La IA como herramienta de encubrimiento
De acuerdo con las investigaciones, tras la desaparición de la abogada se enviaron comunicaciones digitales que aparentaban provenir de ella. Pericias forenses determinaron que algunos de esos mensajes y audios habrían sido generados o manipulados con tecnología de inteligencia artificial, lo que retrasó la denuncia y desvió la atención de los investigadores.
El abogado penalista Julio César Cueva explicó que el uso de IA en sí mismo no está tipificado como delito en Ecuador. “El uso de IA para cometer delitos no está tipificado como delito, se sanciona el delito como tal, sin importar la herramienta que se use, salvo que se trate de un ingreso no autorizado a una base de datos, cuentas, etc., pero eso son delitos contra la propiedad usando medios electrónicos”, señaló.
Esto significa que, en el caso de Sauces 9, lo que se sancionará es el asesinato, independientemente de que se haya utilizado IA para encubrirlo. Sin embargo, si terceros hubieran intervenido en la manipulación de pruebas digitales, podrían enfrentar cargos por fraude procesal, un delito autónomo incorporado en el COIP.

Un nuevo reto para fiscales y jueces
Uno de los puntos más críticos del caso es la validez de las pruebas digitales. Según Cueva, la Fiscalía y los peritos en Ecuador tienen limitaciones técnicas para manejar evidencia digital. “El problema es que la Fiscalía y los peritos nuestros saben muy poco de manejo de evidencia digital, sobre todo de preservación, porque la evidencia digital es muy volátil. Por ejemplo, una historia en Instagram se borra en 24 horas; si no la preservas antes, se perdió para siempre”, explicó.
Aunque el COIP establece lineamientos sobre cómo debe manejarse la evidencia digital, en la práctica aún existen vacíos de conocimiento. El abogado menciona que "los peritos saben muy poco de eso y además los jueces no entienden nada del tema, igual que los fiscales". Además añadió que el conocimiento que tienen es muy básico comparado con el tipo de tareas que se hacen al momento de recabar la información.
¿Se puede sancionar a las empresas de IA?
La IA ha generado críticas sobre su uso, especialmente sobre qué responsabilidad tienen las empresas creadoras de este tipo de tecnología o si también deberían ser sancionadas. Sin embargo, Cueva fue enfático en señalar que no existen precedentes en Ecuador ni en la región.
“No hay precedentes de delitos que se haya sancionado a ninguna empresa desarrolladora. En EE. UU. o Europa seguramente aparecerán los primeros casos, pero no conozco ninguno aún". Además puntualizó que para Ecuador será casi imposible responsabilizarlas ya que no están dentro del país.
Más allá de la discusión tecnológica, Cueva enfatizó que lo central sigue siendo el delito principal: “Más allá de que si se usó o no IA para encubrir el delito, lo que se va a sancionar es el asesinato sin importar el método usado”.
¿Quieres seguir leyendo el contenido de EXPRESO? ¡SUSCRÍBETE AQUÍ!