Bonet Blog Procesal: ¿Es viable la Inteligencia Artificial en el proceso penal?

jueves, 30 de abril de 2020

¿Es viable la Inteligencia Artificial en el proceso penal?


Tratar sobre  la Inteligencia Artificial (o AI) como instrumento apto para mejorar los procesos penales y “si es posible que sean más justos los jueces androides”, es un reto que impone partir de un futurible incierto: si llegará a sustituir al ser humano en la función jurisdiccional. Esto depende actualmente de cosas tan variadas como el avance de la tecnología y también de una regulación en el que primen valores éticos. 

 Como ilustra Lorenzo de Membiela (“Llamamiento de Roma para la ética de la IA”), las empresas IBM y Microsoft han firmado una declaración sobre Inteligencia Artificial ética promovida por el Vaticano con el fin de amparar los derechos de las personas y la conservación del planeta. Y poco antes, en diciembre de 2018, la Comisión Europea para la Eficiencia de la Justicia aprobó la “Carta Europea sobre el Uso Ético de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno”. Esto significa que siendo complejo el avance científico y tecnológico, aumenta si debe respetarse la garantía y la seguridad del ser humano.
Así y todo, al menos hasta ahora he sido optimista en cuanto a las posibilidades que ofrece la AI en el ámbito del Derecho Procesal. Y eso creo que se debe, de entrada, a que ha de ser modesto el punto de vista sobre el sentido y alcance que corresponde a la función jurisdiccional. En mi opinión, más allá de lo que pueda significar ontológicamente la llamada “justicia”, considero que la función jurisdiccional, en general compleja y además impartida por seres esencialmente imperfectos como somos los humanos, se limita a la aplicación del derecho en el caso concreto, con garantías -especialmente en lo referido a los principios y derechos fundamentales- así como con un razonable grado de certeza. Esto no excluye aspirar al máximo de calidad resolutoria, pero sin pretender perfecciones que sencillamente son imposibles. Imposibilidad que se acepta sin mayores problemas cuando se imparte por el ser humano, pero parece que no ocurre lo propio cuando se afronta por un hipotético “boot-iurex”. Si bien se mira, las principales críticas a esta impartición de justicia, junto al inicial pesimismo sobre su potencialidad, tienen en su substrato una inexplicable exigencia de perfección que, por inalcanzable, genera irremediables posiciones contrapuestas frente a la misma.
Lo bien cierto es que el ser humano ha evolucionado a la par que lo ha hecho la tecnología. Y eso ha ocurrido sin cesar desde el principio, cuando empezó a emplear piedras o huesos como herramientas hasta la actual era de internet con incipiente coexistencia con la AI. Y si esto es así desde que germina la sociedad y además se ha venido produciendo en progresión ascendente, no se presenta muy complicado adivinar el potencial de la AI para aprender y funcionar de modo autónomo en la realización de múltiples actividades, incluidas las relativas a la resolución de conflictos.
El Comité de Asuntos Legales del Parlamento Europeo así lo ha visto en su informe de 27 de enero de 2017, en el que principalmente llama la atención para que se cree un cuerpo jurídico sólido para “garantizar que los robots estén y seguirán al servicio de los seres humanos”. Y esto lo considera porque reconoce el potencial de desarrollo de máquinas inteligentes y autónomas, con capacidad de ser entrenadas para pensar y tomar decisiones, hasta el punto de que –señala literalmente el mismo informe–, “existe la posibilidad de que a largo plazo la inteligencia artificial llegue a superar la capacidad intelectual humana”. Es claro, por tanto, que está reconociendo la importancia presente y futura de la AI, instando a que se preste la debida atención a los aspectos jurídicos, entre ellos, las implicaciones en el derecho procesal. Es más, concretamente en este ámbito reconoce que el aprendizaje automático plantea retos a la hora de velar, entre otros aspectos como la no discriminación y la transparencia, sobre “las garantías procesales”. Y además indica que “incidirán sin duda en las elecciones… de las autoridades administrativas y judiciales u organismos públicos de otro tipo, a la hora de tomar su decisión final, ya sea de carácter comercial, de ejercicio de la autoridad pública o de consumo… es necesario integrar salvaguardias y la posibilidad de control y verificación por parte de las personas en los procesos de toma de decisiones automatizados y basados en algoritmos”.
Considerando un supuesto de AI avanzada, se trata de valorar si una hipotética impartición de “justicia” mediante esta AI podría igualar y hasta incluso superar la actividad desarrollada por el ser humano, más concretamente a la hora de tomar decisiones sobre la forma y el fondo sobre la resolución de conflictos o en la eventual imposición de penas y medidas cautelares ante hechos tipificados en el Código Penal.
Para ello partimos de que la función de juzgar no se realiza de forma misteriosa o mágica. En realidad, se trata de una actividad relativamente sencilla incluso en los supuestos aparentemente más complejos. Si bien se mira, básicamente nos limitamos a dos actividades: la fijación fáctica y la aplicación normativa sobre los datos fijados.
Este segundo aspecto no está exento de dificultades para un sistema de AI avanzada. En el caso del proceso penal, sin duda exige la calificación jurídica de los hechos tipificados, de las circunstancias concurrentes, así como también de la atribución subjetiva de esos hechos. Y una vez esto determinado, deberá cuantificarse y aplicar las penas que puedan estar previstas para dichos hechos y circunstancias.
En cuanto a las medidas cautelares, la actividad tampoco es muy diferente a la anterior. Como matiz, se pondrá el foco en la aparente tipificación de los hechos, así como en las circunstancias objetivas y subjetivas de las que pueda derivar peligro para la efectividad de la futura resolución. Más concretamente, se atenderá principalmente a posibles actividades que impidan o dificulten la obtención de pruebas o que permitan entender que el sujeto pasivo podrá situarse en paradero desconocido. Igualmente se pondrá el foco en el peligro para la víctima o para la sociedad, en cuanto quepa entenderse que puedan repetirse los hechos calificados como delito. Todo esto implica la realización de una actividad técnica sobre la que no se presentan problemas insalvables para que un sistema de AI pueda tomar decisiones sin mermas de calidad y acierto respecto de las que pueda adoptar un ser humano, en algunas ocasiones basadas en apreciaciones aproximativas o en un conocimiento meramente intuitivo de escasa fiabilidad.
De hecho, actualmente la aplicación de la AI se dirige en dos direcciones principales. La primera, como ayuda para la investigación penal. Hacía allí se orientan sistemas como Connect, para la investigación del lavado de dinero; ICSE-DB para la investigación de delitos de explotación sexual infantil; o Valcri -Visual Analytics for Sense-making in Criminal Intelligence Analysis- para detectar patrones sospechosos y reconstrucción de escenas para plantear nuevas líneas de investigación como ayuda para generar ideas sobre la dinámica el tiempo y las razones por las que se cometió un crimen, así como su posible autor). Y la segunda se dirige al ámbito de las medidas cautelares, básicamente por su potencial predictivo sobre el posible éxito de una disputa, cosa relevante para valor el fumus boni iuris, o sobre las posibilidades de reiteración del delito, y, por tanto, para valorar la peligrosidad de un sujeto pasivo de una medida cautelar o, en otros términos, el periculum in mora. Así encontramos, entre otros muchos, métodos o sistemas preventivos del delito o de evaluación de riesgos como Hart o Compas. La primera es la Herramienta de Evaluación de Riesgo de Daños (Harm Assessment Risk Tool). Se destina a predecir la posibilidad de cometer delitos. Fue desarrollada en colaboración con la Universidad de Cambridge y se encuentra en fase de prueba en el Reino Unido. Se basa en el aprendizaje automático y se entrenó en los archivos de la Policía de Durham entre 2008 a 2012. Partiendo de los mismos y de si se reincidió por ciertos sospechosos, y con base en diversos factores no siempre relacionados con el delito cometido, se pretende que el sistema evalúe el riesgo como bajo, medio o alto en los sospechosos reincidentes. Como resultado, sus predicciones se afirma que han sido del 98% efectivas para predecir bajo riesgo y del 88% efectivas con alto riesgo de reincidencia. Al menos por el momento, solo tendrá utilidad para el asesoramiento de quien deba juzgar, y al tiempo se prevén auditorías sistemáticas como su funcionamiento y fiabilidad de sus conclusiones. Por su parte, Compas, sobre perfiles de gestión de delincuentes correccionales para sanciones alternativas, pretende evaluar el riesgo de reincidencia. Se trata de un algoritmo desarrollado por una empresa privada, a pesar de que será utilizado en el sistema judicial de algunos estados de USA. Incluye ciento treinta y siete preguntas, de contenido muy variado y respondidas por el investigado o acusado, así como información extraída de “crirregistros” minales. El algoritmo clasifica a la persona en una escala de uno (riesgo bajo) a diez (riesgo alto). Sus predicciones no son vinculantes, pero sirven como ayuda para la toma de decisiones judiciales. 
No obstante lo novedoso y llamativo de estos y otros sistemas equivalentes, no representan más que una mera semilla de lo que vendrá en el futuro. De ese modo, no ha de sorprender que estos sistemas resulten imperfectos y que produzca sesgos tan excesivos como inaceptables. Esto no excluye su futuro potencial para ayudar o incluso sustituir la decisión del ser humano. Sencillamente requiere para superarlos un mayor avance tecnológico y un especial control que limite los posibles sesgos o desviaciones que pueda producir. Ahora bien, hemos de ser objetivos en esto.
No me parece adecuado negar el potencial de la AI por el mero hecho de que no sea, ni creo que llegue a ser nunca, un sistema perfecto; o porque pueda producir, aunque sea minimizados, determinados sesgos. Y esto máxime cuando al mismo tiempo no somos tan exigentes con el ser humano, al que admitimos la imperfección como algo natural, y le toleramos decisiones basadas prácticamente en la mera intuición cuando no en el prejuicio más o menos disimulado. En suma, el potencial de la AI requiere ser valorado con criterios y exigencias equivalentes a las que exigimos al ser humano. Con esa coherencia, dudo de que en un futuro no lejano los sistemas de AI pierdan la partida en lo referente a fiabilidad y corrección frente a la tradicional resolución por el ser humano.
De otro lado, todavía será más destacable el papel de la IA en la labor de resolución, incluido todo lo relativo a la fijación fáctica. Pensemos que un sistema de AI ya es apto actualmente para dictar determinadas resoluciones, aunque sea sencillas, con plenas fiabilidad. Así ocurre, por citar un ejemplo inmediato, al resolver si procede o no la admisión de la demanda tanto por ser extemporánea como por la ausencia de ciertos documentos exigibles. Por supuesto, otra cosa será, en caso de concurrir el documento, la decisión sobre su suficiencia o su falta de correspondencia con lo exigible, cuya valoración será algo más compleja.
Pero no me estoy refiriendo únicamente a estas sencillas decisiones, incluso en la actividad de fijación fáctica la AI está llamada a alcanzar, aunque siempre sea con cierto margen de imperfección o error, un nivel superior de fiabilidad a la que realice un ser humano. Me permito esta afirmación distinguiendo algunos de los supuestos que se plantean:
1.º Si concurren o no hechos controvertidos. En el segundo caso, ya pueden ser fijados directamente por un sistema de AI. En el primero, no quedarán fijados, y de no haber prueba, solo se trataría de aplicar las normas sobre carga de la prueba.
2.º Si se ha admitido prueba y una vez practicada no resulta ser contradictoria, podrán fijarse hechos, sin perjuicio de su suficiencia. En cambio, siendo la prueba contradictoria, las dificultades aumentan en la medida que se reduzcan los elementos coincidentes, pues se presentará necesaria una valoración de la prueba que concrete la eficacia de los medios de prueba practicados, según los casos, conforme a la convicción judicial o mediante la constatación de los presupuestos legalmente previstos.
La valoración legal de la prueba, subsistente en algunos de los medios de prueba más importantes del proceso civil (algunos supuestos de prueba documental), se presenta algo más sencilla que la libre (general en el proceso penal y en gran parte de los procesos civiles), pues se limitará a comprobar o constatar el cumplimiento de los presupuestos legalmente previstos para que, sin necesidad de convencimiento judicial, se produzca la fijación del dato. Y no parece muy lejano en el tiempo que un sistema de AI pueda detectar la concurrencia de los presupuestos o requisitos para que la prueba legal tenga los efectos de fijación fáctica.
Mayores dificultades encontramos en la valoración libre. Dificultades que se producen en la actividad que ejecutará la AI, pero no olvidemos que también concurrirán cuando sea el ser humano quien las realice. Al margen de las distintas posiciones sobre esto, la valoración libre se lleva a efecto con base en criterios básicamente humanos como la razón, la lógica y las máximas de la experiencia. Y se considerará que procede la fijación de los datos contradictorios y objeto de prueba cuando se alcance un nivel de convicción suficiente, que es una actividad de carácter subjetivo pero integrado por elementos objetivos que serán los que se expresen en la motivación. Ante esto, no creo que haya grandes problemas para que este “nivel de convicción” -por tanto, siempre aproximativo- pueda ser sustituido por un porcentaje numérico que, llevando implícito la coherencia con el contexto, se estime adecuado y suficiente para fijar el hecho.
Al margen de la diferente metodología y del común carácter falible en toda esta actividad, para considerar a la AI tan apta o más que el ser humano para la valoración de la prueba considero que se presenta particularmente significativa la aptitud para medir y ponderar los aspectos relevantes que permitan ponderar la fiabilidad relativa de un medio de prueba sobre otro. Y es justo aquí donde la AI puede ganar la batalla al ser humano, en cuanto sea capaz de apreciar mejor, y sin que se le “escapen”, elementos de fiabilidad más o menos de matiz.
A continuación, la AI solamente habrá de tomar en consideración estos elementos para calcular un porcentaje su fiabilidad en atención a los diversos criterios predefinidos. Y con este cálculo estará en condiciones de realizar un ejercicio comparativo con lo que resulte de otros medios de prueba en los que pueda entrar en contradicción, esto es, según los casos, sumar o restar porcentajes y, por último, determinar el cociente de fiabilidad suficiente para la fijación fáctica.
Así, por ejemplo, en la prueba testifical, atenderá a los aspectos relevantes sobre la credibilidad del testimonio. Entre ellos, computará el contexto en el que se adquiere el conocimiento y que pueda excluir o condicionar al mismo; también las reacciones físicas internas o externas que pueda experimentar el declarante y que sean detectables mediante los correspondientes instrumentos tecnológicos. Aunque en algunos casos estos elementos puedan ser relativos, en tanto que dependan de la personalidad y estado físico y psicológico del declarante, estos aspectos parece que podrán ser debidamente ponderados por un sistema de AI con mayor amplitud y exactitud que un ser humano.
Ahora bien, y esto ha de quedar bien claro, siempre cabrá errores, inexactitudes o insuficiencias, como podría ocurrir en los supuestos de ideas, conocimientos o informaciones inconscientemente incorrectas o inexactas. En estos casos, las reacciones o su ausencia en el declarante se presentan obviamente inútiles, y solamente restará la coherencia con el contexto como forma de valorar por cualquier “sistema” inteligente, sea natural o artificial. En fin, aunque sea siempre con limitaciones, considero que cabe esperar mejores resultados en general mediante AI.
Tampoco encuentro dificultades relevantes para que un sistema de AI valore libremente la documental. Entre otras cosas, puede apreciar insuficiencias formales en cualquier documento, como la falta de correspondencia de la firma plasmada en el mismo con la de que se supone ha de ser la de su autor. Además, cabe que identifique el documento, lo comprenda y le otorgue el valor jurídico correspondiente, comprobando la correspondencia de la firma, así como la lógica y coherencia del contenido del documento con el contexto. Y lo mismo cabrá decir con otros medios de prueba similares, como aquellos que consisten en la introducción en el proceso de escritos o datos fácticos de archivos, libros y registros de entidades públicas o privadas, que serán incorporados inicialmente como documentos o, de ser negados, como testifical.
Del mismo modo, en la prueba pericial un sistema de AI igualmente puede jugar un papel incluso superior al del ser humano. Si no hay dictámenes contradictorios, bastaría con constatar la aptitud técnica del perito y la ausencia de elementos que conduzcan a la carencia de sustento irreal, al carácter acientífico, o resulte ilógico o incoherente. Por el contrario, resultando contradictorias las pericias entre sí o respeto de otros medios de prueba, habrán de valorarse para poder fijar los hechos. Para ello se atenderán a aspectos tan diversos como la capacidad técnica del perito, o el cumplimiento de estándares científicos en los informes; y se atenderá a que no se presente ilógico ni contradictorio consigo mismo y con el contexto.
De todos modos, la importancia de la prueba pericial parece que perdería relevancia con un sistema de AI interconectado con potentes bases de datos, en cuanto que esta circunstancia rebajaría la necesidad de informar o trasladar conocimientos a un juzgador con tal capacidad de conocimiento, salvo que sea precisos ensayos, experimentos o análisis irrealizables directamente (salvo que en el futuro sean viables estos análisis en tal forma, por ejemplo, los análisis o ensayos para determinar la pureza de una sustancia psicotrópica, o el ADN en un fluido seminal).
Para ir concluyendo, con carácter general no observo grandes obstáculos para que un sistema de AI suficientemente avanzado pueda fijar hechos a los efectos de resolver. A tal efecto, se presenta idóneo, más incluso que el ser humano, para atender a los múltiples elementos influyentes en la actividad valorativa, especialmente sobre aquellos que, por ser minúsculos o de detalle, podrían pasar inadvertidos más fácilmente al ser humano. Tampoco veo imposible que la AI proceda a la evaluación de la lógica interna y externa de los elementos fácticos conforme a la coherencia contextual. Esta actividad no es desde luego sencilla, ni creo que llegue a ser nunca perfecta. Si pretendemos que la inteligencia por el hecho de ser artificial ha de ser necesariamente perfecta, estaremos cometiendo el mismo error de aquellos que la critican o le niegan virtualidad por el mero hecho de que pueda cometer errores o incurrir en determinados sesgos que, si bien caben minimizarse, no llegarán a ser totalmente excluidos. En cualquier caso, es claro que la imperfección y los errores forman parte sustancial de la actividad humana, y lo mismo cabe decir de la AI. Por todo eso, en mi opinión, lo relevante es que un sistema avanzado de IA llegue a igualar o incluso a superar al ser humano en lo referente a fiabilidad y corrección a la hora de resolver conflictos o de imponer las penas o medidas de seguridad que correspondan. Por supuesto, hay que trabajar mucho y seriamente para minimizar al máximo las posibles omisiones, errores o sesgos, y para establecer los marcos regulatorios que garanticen un nivel adecuado de fiabilidad, así como el respeto a los valores y derechos humanos.

No hay comentarios:

Publicar un comentario