Tratar sobre la Inteligencia Artificial (o AI) como instrumento apto para mejorar los procesos penales y “si es posible que sean más justos los jueces androides”, es un reto que impone partir de un futurible incierto: si llegará a sustituir al ser humano en la función jurisdiccional. Esto depende actualmente de cosas tan variadas como el avance de la tecnología y también de una regulación en el que primen valores éticos.
Como ilustra Lorenzo de Membiela (“Llamamiento de Roma para la ética de la IA”), las empresas IBM y Microsoft han firmado una declaración sobre Inteligencia Artificial ética promovida por el Vaticano con el fin de amparar los derechos de las personas y la conservación del planeta. Y poco antes, en diciembre de 2018, la Comisión Europea para la Eficiencia de la Justicia aprobó la “Carta Europea sobre el Uso Ético de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno”. Esto significa que siendo complejo el avance científico y tecnológico, aumenta si debe respetarse la garantía y la seguridad del ser humano.
Como ilustra Lorenzo de Membiela (“Llamamiento de Roma para la ética de la IA”), las empresas IBM y Microsoft han firmado una declaración sobre Inteligencia Artificial ética promovida por el Vaticano con el fin de amparar los derechos de las personas y la conservación del planeta. Y poco antes, en diciembre de 2018, la Comisión Europea para la Eficiencia de la Justicia aprobó la “Carta Europea sobre el Uso Ético de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno”. Esto significa que siendo complejo el avance científico y tecnológico, aumenta si debe respetarse la garantía y la seguridad del ser humano.
Así y todo, al menos hasta ahora he sido optimista en cuanto
a las posibilidades que ofrece la AI en el ámbito del Derecho Procesal. Y eso
creo que se debe, de entrada, a que ha de ser modesto el punto de vista sobre
el sentido y alcance que corresponde a la función jurisdiccional. En mi
opinión, más allá de lo que pueda significar ontológicamente la llamada “justicia”,
considero que la función jurisdiccional, en general compleja y además impartida
por seres esencialmente imperfectos como somos los humanos, se limita a la aplicación
del derecho en el caso concreto, con garantías -especialmente en lo referido a
los principios y derechos fundamentales- así como con un razonable grado de
certeza. Esto no excluye aspirar al máximo de calidad resolutoria, pero sin
pretender perfecciones que sencillamente son imposibles. Imposibilidad que se
acepta sin mayores problemas cuando se imparte por el ser humano, pero parece
que no ocurre lo propio cuando se afronta por un hipotético “boot-iurex”. Si
bien se mira, las principales críticas a esta impartición de justicia, junto al
inicial pesimismo sobre su potencialidad, tienen en su substrato una
inexplicable exigencia de perfección que, por inalcanzable, genera
irremediables posiciones contrapuestas frente a la misma.
Lo bien cierto es que el ser humano ha evolucionado a la par
que lo ha hecho la tecnología. Y eso ha ocurrido sin cesar desde el principio,
cuando empezó a emplear piedras o huesos como herramientas hasta la actual era
de internet con incipiente coexistencia con la AI. Y si esto es así desde que
germina la sociedad y además se ha venido produciendo en progresión ascendente,
no se presenta muy complicado adivinar el potencial de la AI para aprender y
funcionar de modo autónomo en la realización de múltiples actividades,
incluidas las relativas a la resolución de conflictos.
El Comité de Asuntos Legales del Parlamento Europeo así lo
ha visto en su informe de 27 de enero de 2017, en el que principalmente llama
la atención para que se cree un cuerpo jurídico sólido para “garantizar
que los robots estén y seguirán al servicio de los seres humanos”. Y esto lo considera porque reconoce
el potencial de desarrollo de máquinas inteligentes y autónomas, con capacidad
de ser entrenadas para pensar y tomar decisiones, hasta el punto de que –señala
literalmente el mismo informe–, “existe
la posibilidad de que a largo plazo la inteligencia artificial llegue a superar
la capacidad intelectual humana”. Es claro, por tanto, que está reconociendo
la importancia presente y futura de la AI, instando a que se preste la debida
atención a los aspectos jurídicos, entre ellos, las implicaciones en el derecho
procesal. Es más, concretamente en este ámbito reconoce que el aprendizaje
automático plantea retos a la hora de velar, entre otros aspectos como la no
discriminación y la transparencia, sobre “las garantías procesales”. Y además
indica que “incidirán sin duda en las
elecciones… de las autoridades administrativas y judiciales u organismos
públicos de otro tipo, a la hora de tomar su decisión final, ya sea de carácter
comercial, de ejercicio de la autoridad pública o de consumo… es necesario
integrar salvaguardias y la posibilidad de control y verificación por parte de
las personas en los procesos de toma de decisiones automatizados y basados en
algoritmos”.
Considerando un supuesto de AI avanzada, se trata de valorar
si una hipotética impartición de “justicia” mediante esta AI podría igualar y
hasta incluso superar la actividad desarrollada por el ser humano, más
concretamente a la hora de tomar decisiones sobre la forma y el fondo sobre la
resolución de conflictos o en la eventual imposición de penas y medidas cautelares
ante hechos tipificados en el Código Penal.
Para ello partimos de que la función de juzgar no se realiza
de forma misteriosa o mágica. En realidad, se trata de una actividad
relativamente sencilla incluso en los supuestos aparentemente más complejos. Si
bien se mira, básicamente nos limitamos a dos actividades: la fijación fáctica
y la aplicación normativa sobre los datos fijados.
Este segundo aspecto no está exento de dificultades para un
sistema de AI avanzada. En el caso del proceso penal, sin duda exige la
calificación jurídica de los hechos tipificados, de las circunstancias
concurrentes, así como también de la atribución subjetiva de esos hechos. Y una
vez esto determinado, deberá cuantificarse y aplicar las penas que puedan estar
previstas para dichos hechos y circunstancias.
En cuanto a las medidas cautelares, la actividad tampoco es
muy diferente a la anterior. Como matiz, se pondrá el foco en la aparente
tipificación de los hechos, así como en las circunstancias objetivas y
subjetivas de las que pueda derivar peligro para la efectividad de la futura
resolución. Más concretamente, se atenderá principalmente a posibles
actividades que impidan o dificulten la obtención de pruebas o que permitan
entender que el sujeto pasivo podrá situarse en paradero desconocido.
Igualmente se pondrá el foco en el peligro para la víctima o para la sociedad,
en cuanto quepa entenderse que puedan repetirse los hechos calificados como
delito. Todo esto implica la realización de una actividad técnica sobre la que
no se presentan problemas insalvables para que un sistema de AI pueda tomar
decisiones sin mermas de calidad y acierto respecto de las que pueda adoptar un
ser humano, en algunas ocasiones basadas en apreciaciones aproximativas o en un
conocimiento meramente intuitivo de escasa fiabilidad.
De
hecho, actualmente la aplicación de la AI se dirige en dos direcciones
principales. La primera, como ayuda para la investigación penal. Hacía allí se
orientan sistemas como Connect, para
la investigación del lavado de dinero; ICSE-DB
para la investigación de delitos de explotación sexual infantil; o Valcri -Visual Analytics for Sense-making in Criminal Intelligence Analysis- para
detectar patrones sospechosos y reconstrucción de escenas para plantear nuevas
líneas de investigación como ayuda para generar ideas sobre la dinámica el
tiempo y las razones por las que se cometió un crimen, así como su posible
autor). Y
la segunda se dirige al ámbito de las medidas cautelares, básicamente por su
potencial predictivo sobre el posible éxito de una disputa, cosa relevante para
valor el fumus boni iuris, o sobre
las posibilidades de reiteración del delito, y, por tanto, para valorar la
peligrosidad de un sujeto pasivo de una medida cautelar o, en otros términos,
el periculum in mora. Así encontramos,
entre otros muchos, métodos o sistemas preventivos del delito o de evaluación
de riesgos como Hart o Compas. La primera es
la Herramienta de Evaluación de Riesgo de Daños (Harm
Assessment Risk Tool). Se destina a predecir la posibilidad de cometer delitos. Fue
desarrollada en colaboración con la Universidad de Cambridge y se encuentra en
fase de prueba en el Reino Unido. Se basa en el aprendizaje automático y se
entrenó en los archivos de la Policía de Durham entre 2008 a 2012. Partiendo de
los mismos y de si se reincidió por ciertos sospechosos, y con base en diversos
factores no siempre relacionados con el delito cometido, se pretende que el
sistema evalúe el riesgo como bajo, medio o alto en los sospechosos
reincidentes. Como resultado, sus predicciones se afirma que han sido del 98%
efectivas para predecir bajo riesgo y del 88% efectivas con alto riesgo de
reincidencia. Al menos por el momento, solo tendrá utilidad para el
asesoramiento de quien deba juzgar, y al tiempo se prevén auditorías
sistemáticas como su funcionamiento y fiabilidad de sus conclusiones. Por su
parte, Compas, sobre perfiles de
gestión de delincuentes correccionales para sanciones alternativas, pretende
evaluar el riesgo de reincidencia. Se trata de un algoritmo desarrollado por
una empresa privada, a pesar de que será utilizado en el sistema judicial de
algunos estados de USA. Incluye ciento treinta y siete preguntas, de contenido
muy variado y respondidas por el investigado o acusado, así como información
extraída de “crirregistros” minales. El algoritmo clasifica a la persona en una
escala de uno (riesgo bajo) a diez (riesgo alto). Sus predicciones no son
vinculantes, pero sirven como ayuda para la toma de decisiones judiciales.
No obstante lo novedoso y llamativo de estos y otros sistemas equivalentes, no representan más que una mera semilla de lo que vendrá en el futuro. De ese modo, no ha de sorprender que estos sistemas resulten imperfectos y que produzca sesgos tan excesivos como inaceptables. Esto no excluye su futuro potencial para ayudar o incluso sustituir la decisión del ser humano. Sencillamente requiere para superarlos un mayor avance tecnológico y un especial control que limite los posibles sesgos o desviaciones que pueda producir. Ahora bien, hemos de ser objetivos en esto.
No obstante lo novedoso y llamativo de estos y otros sistemas equivalentes, no representan más que una mera semilla de lo que vendrá en el futuro. De ese modo, no ha de sorprender que estos sistemas resulten imperfectos y que produzca sesgos tan excesivos como inaceptables. Esto no excluye su futuro potencial para ayudar o incluso sustituir la decisión del ser humano. Sencillamente requiere para superarlos un mayor avance tecnológico y un especial control que limite los posibles sesgos o desviaciones que pueda producir. Ahora bien, hemos de ser objetivos en esto.
No me parece adecuado negar el potencial de la AI por
el mero hecho de que no sea, ni creo que llegue a ser nunca, un sistema
perfecto; o porque pueda producir, aunque sea minimizados, determinados sesgos.
Y esto máxime cuando al mismo tiempo no somos tan exigentes con el ser humano,
al que admitimos la imperfección como algo natural, y le toleramos decisiones
basadas prácticamente en la mera intuición cuando no en el prejuicio más o
menos disimulado. En suma, el potencial de la AI requiere ser valorado con
criterios y exigencias equivalentes a las que exigimos al ser humano. Con esa
coherencia, dudo de que en un futuro no lejano los sistemas de AI pierdan la
partida en lo referente a fiabilidad y corrección frente a la tradicional
resolución por el ser humano.
De otro lado, todavía será más destacable el papel de la IA en
la labor de resolución, incluido todo lo relativo a la fijación fáctica. Pensemos
que un sistema de AI ya es apto actualmente para dictar determinadas
resoluciones, aunque sea sencillas, con plenas fiabilidad. Así ocurre, por citar
un ejemplo inmediato, al resolver si procede o no la admisión de la demanda tanto
por ser extemporánea como por la ausencia de ciertos documentos exigibles. Por
supuesto, otra cosa será, en caso de concurrir el documento, la decisión sobre
su suficiencia o su falta de correspondencia con lo exigible, cuya valoración será
algo más compleja.
Pero no me estoy refiriendo únicamente a estas sencillas
decisiones, incluso en la actividad de fijación fáctica la AI está llamada a
alcanzar, aunque siempre sea con cierto margen de imperfección o error, un
nivel superior de fiabilidad a la que realice un ser humano. Me permito esta
afirmación distinguiendo algunos de los supuestos que se plantean:
1.º Si concurren o no hechos controvertidos. En el segundo
caso, ya pueden ser fijados directamente por un sistema de AI. En el primero,
no quedarán fijados, y de no haber prueba, solo se trataría de aplicar las
normas sobre carga de la prueba.
2.º Si se ha admitido prueba y una vez practicada no resulta
ser contradictoria, podrán fijarse hechos, sin perjuicio de su suficiencia. En
cambio, siendo la prueba contradictoria, las dificultades aumentan en la medida
que se reduzcan los elementos coincidentes, pues se presentará necesaria una
valoración de la prueba que concrete la eficacia de los medios de prueba
practicados, según los casos, conforme a la convicción judicial o mediante la
constatación de los presupuestos legalmente previstos.
La valoración legal de la prueba, subsistente en algunos de
los medios de prueba más importantes del proceso civil (algunos supuestos de
prueba documental), se presenta algo más sencilla que la libre (general en el
proceso penal y en gran parte de los procesos civiles), pues se limitará a comprobar
o constatar el cumplimiento de los presupuestos legalmente previstos para que,
sin necesidad de convencimiento judicial, se produzca la fijación del dato. Y
no parece muy lejano en el tiempo que un sistema de AI pueda detectar la
concurrencia de los presupuestos o requisitos para que la prueba legal tenga
los efectos de fijación fáctica.
Mayores dificultades encontramos en la valoración libre.
Dificultades que se producen en la actividad que ejecutará la AI, pero no
olvidemos que también concurrirán cuando sea el ser humano quien las realice.
Al margen de las distintas posiciones sobre esto, la valoración libre se lleva
a efecto con base en criterios básicamente humanos como la razón, la lógica y
las máximas de la experiencia. Y se considerará que procede la fijación de los
datos contradictorios y objeto de prueba cuando se alcance un nivel de
convicción suficiente, que es una actividad de carácter subjetivo pero
integrado por elementos objetivos que serán los que se expresen en la
motivación. Ante esto, no creo que haya grandes problemas para que este “nivel
de convicción” -por tanto, siempre aproximativo- pueda ser sustituido por un
porcentaje numérico que, llevando implícito la coherencia con el contexto, se
estime adecuado y suficiente para fijar el hecho.
Al margen de la diferente metodología y del común carácter
falible en toda esta actividad, para considerar a la AI tan apta o más que el
ser humano para la valoración de la prueba considero que se presenta
particularmente significativa la aptitud para medir y ponderar los aspectos
relevantes que permitan ponderar la fiabilidad relativa de un medio de prueba
sobre otro. Y es justo aquí donde la AI puede ganar la batalla al ser humano,
en cuanto sea capaz de apreciar mejor, y sin que se le “escapen”, elementos de
fiabilidad más o menos de matiz.
A continuación, la AI solamente habrá de tomar en
consideración estos elementos para calcular un porcentaje su fiabilidad en
atención a los diversos criterios predefinidos. Y con este cálculo estará en
condiciones de realizar un ejercicio comparativo con lo que resulte de otros medios
de prueba en los que pueda entrar en contradicción, esto es, según los casos, sumar
o restar porcentajes y, por último, determinar el cociente de fiabilidad
suficiente para la fijación fáctica.
Así, por ejemplo, en la prueba testifical, atenderá a los
aspectos relevantes sobre la credibilidad del testimonio. Entre ellos,
computará el contexto en el que se adquiere el conocimiento y que pueda excluir
o condicionar al mismo; también las reacciones físicas internas o externas que
pueda experimentar el declarante y que sean detectables mediante los
correspondientes instrumentos tecnológicos. Aunque en algunos casos estos
elementos puedan ser relativos, en tanto que dependan de la personalidad y
estado físico y psicológico del declarante, estos aspectos parece que podrán
ser debidamente ponderados por un sistema de AI con mayor amplitud y exactitud
que un ser humano.
Ahora bien, y esto ha de quedar bien claro, siempre cabrá
errores, inexactitudes o insuficiencias, como podría ocurrir en los supuestos
de ideas, conocimientos o informaciones inconscientemente incorrectas o
inexactas. En estos casos, las reacciones o su ausencia en el declarante se
presentan obviamente inútiles, y solamente restará la coherencia con el
contexto como forma de valorar por cualquier “sistema” inteligente, sea natural
o artificial. En fin, aunque sea siempre con limitaciones, considero que cabe esperar
mejores resultados en general mediante AI.
Tampoco encuentro dificultades relevantes para que un
sistema de AI valore libremente la documental. Entre otras cosas, puede
apreciar insuficiencias formales en cualquier documento, como la falta de
correspondencia de la firma plasmada en el mismo con la de que se supone ha de
ser la de su autor. Además, cabe que identifique el documento, lo comprenda y
le otorgue el valor jurídico correspondiente, comprobando la correspondencia de
la firma, así como la lógica y coherencia del contenido del documento con el
contexto. Y lo mismo cabrá decir con otros medios de prueba similares, como
aquellos que consisten en la introducción en el proceso de escritos o datos
fácticos de archivos, libros y registros de entidades públicas o privadas, que
serán incorporados inicialmente como documentos o, de ser negados, como
testifical.
Del mismo modo, en la prueba pericial un sistema de AI igualmente
puede jugar un papel incluso superior al del ser humano. Si no hay dictámenes
contradictorios, bastaría con constatar la aptitud técnica del perito y la
ausencia de elementos que conduzcan a la carencia de sustento irreal, al
carácter acientífico, o resulte ilógico o incoherente. Por el contrario,
resultando contradictorias las pericias entre sí o respeto de otros medios de
prueba, habrán de valorarse para poder fijar los hechos. Para ello se atenderán
a aspectos tan diversos como la capacidad técnica del perito, o el cumplimiento
de estándares científicos en los informes; y se atenderá a que no se presente
ilógico ni contradictorio consigo mismo y con el contexto.
De todos modos, la importancia de la prueba pericial parece
que perdería relevancia con un sistema de AI interconectado con potentes bases
de datos, en cuanto que esta circunstancia rebajaría la necesidad de informar o
trasladar conocimientos a un juzgador con tal capacidad de conocimiento, salvo
que sea precisos ensayos, experimentos o análisis irrealizables directamente (salvo
que en el futuro sean viables estos análisis en tal forma, por ejemplo, los
análisis o ensayos para determinar la pureza de una sustancia psicotrópica, o
el ADN en un fluido seminal).
Para ir concluyendo, con carácter general no observo grandes
obstáculos para que un sistema de AI suficientemente avanzado pueda fijar
hechos a los efectos de resolver. A tal efecto, se presenta idóneo, más incluso
que el ser humano, para atender a los múltiples elementos influyentes en la
actividad valorativa, especialmente sobre aquellos que, por ser minúsculos o de
detalle, podrían pasar inadvertidos más fácilmente al ser humano. Tampoco veo
imposible que la AI proceda a la evaluación de la lógica interna y externa de
los elementos fácticos conforme a la coherencia contextual. Esta actividad no
es desde luego sencilla, ni creo que llegue a ser nunca perfecta. Si
pretendemos que la inteligencia por el hecho de ser artificial ha de ser necesariamente
perfecta, estaremos cometiendo el mismo error de aquellos que la critican o le
niegan virtualidad por el mero hecho de que pueda cometer errores o incurrir en
determinados sesgos que, si bien caben minimizarse, no llegarán a ser
totalmente excluidos. En cualquier caso, es claro que la imperfección y los
errores forman parte sustancial de la actividad humana, y lo mismo cabe decir
de la AI. Por todo eso, en mi opinión, lo relevante es que un sistema avanzado
de IA llegue a igualar o incluso a superar al ser humano en lo referente a
fiabilidad y corrección a la hora de resolver conflictos o de imponer las penas
o medidas de seguridad que correspondan. Por supuesto, hay que trabajar mucho y
seriamente para minimizar al máximo las posibles omisiones, errores o sesgos, y
para establecer los marcos regulatorios que garanticen un nivel adecuado de
fiabilidad, así como el respeto a los valores y derechos humanos.
Para bajar el artículo en formato pdf: "Algunas reflexiones sobre la viabilidad de la Inteligencia Artificial en el proceso penal"
No hay comentarios:
Publicar un comentario