Marchena avisa de que la inteligencia artificial no puede sustituir a un juez y subraya que «no todo es digitalizable»

EL ESCORIAL, 13 (EUROPA PRESS)

El presidente de la Sala Segunda del Tribunal Supremo, Manuel Marchena Gómez, ha avisado este miércoles de que la inteligencia artificial no puede sustituir la labor de un juez, sino que esta debe tener «un rostro humano». Así, ha subrayado que «no todo es digitalizable».

«Nuestra jurisprudencia tiene que ser cambiante, adaptarse a cada caso concreto. ¿Cómo se podría sustituir a ese juez que va a poder valorar la mirada del testigo o la firmeza con la que defiende su relato?», ha cuestionado el magistrado.

Así se ha expresado Marchena durante la ponencia ‘Justicia robótica: su incidencia en los principios constitucionales de la función jurisdiccional’ en la que ha intervenido el magistrado en el marco de los Cursos de Verano de la Universidad Complutense que se celebran durante todo el mes de julio en El Escorial.

En este sentido, el presidente de la Sala Segunda del TS ha reflexionado acerca de si un robot es capaz de sustituir a un juez, tras analizar un escenario «más o menos próximo». «No basta con afirmar si es posible sustituir al juez o no, sino plantearse si eso hace una sociedad más justa. En ese caso mi respuesta es absolutamente negativa», ha aseverado.

Asimismo, citando las palabras del historiador Noah Harari, Marchena ha advertido de que el problema que están planteando los metadatos, los algoritmos y la inteligencia artificial, es que se están creando «dictaduras digitales» que «están poniendo en manos de unas élites absolutamente minoritarias todo el poder». «Un poder que va a convertir al ciudadano en irrelevante», ha sentenciado.

Además, también ha criticado que la justicia robótica va a obligar a reconocer la personalidad electrónica del robot porque, según ha explicado, el robot va a ser una fuente generadora de responsabilidad civil. «Esto va a obligar a una ruptura con las categorías históricas de derecho civil y en algún caso de derecho penal», ha apostillado.

Por otra parte, Marchena ha ejemplificado el avance de la inteligencia artificial en el campo de la justicia explicando sistemas que ya están siendo utilizados en distintos países. «Ya existe un sistema que permite detectar con un índice de acierto del 91 por ciento qué denuncias de robos con violencia son falsas antes de empezar a hablar. Simplemente el estudio de las palabras que se repiten y los escenarios que se repiten en el relato de la denuncia, le permiten al robot identificar una investigación falsa», ha desarrollado.

Al mismo tiempo, también ha trasladado la existencia de sistemas que apoyan el trabajo de los abogados, como la aplicación ‘Lexis’ que se utiliza en Estados Unidos para que «con un índice del 100 por ciento» se pueda hacer un pronóstico sobre el éxito y la viabilidad de una demanda en materia de patente. «Procedimientos carísimos, pero todo esto está determinando que la abogacía tenga un instrumento que haga más predecible su trabajo», ha insistido.

«¿QUIEN CONTROLA AL CONTROLADOR?»

Siguiendo con el debate, Marchena ha planteado la problemática de «quién controla al controlador y quién controla programa», a la par que ha trasladado su preocupación por programas que utilizan un sistema predictivo que permite con información de geolocalización, historial delictivo y contactos de la persona, saber si se va a cometer un delito.

«Esto es dar un retroceso porque todos estaremos de acuerdo en que el pensamiento no tiene límite y mientras no se inicie un procedimiento delictivo el fiscal no tiene nada que decir, no puede intervenir», ha asegurado.

CONSEJO EUROPEO DE JUECES

Por otra parte, el juez Marchena ha subrayado las indicaciones del Consejo Europeo de Jueces –que «ya ha llamado la atención» sobre la desmaterialización del proceso judicial– además de la problemática que surge en cuanto a la cooperación internacional, una vez que la inteligencia artificial se expansione, «imaginen una justicia rendida a la justicia basada en la inteligencia artificial y que sin embargo, no pueda conectarse».

Así, el presidente de la Sala Segunda del Tribunal Supremo ha insistido en que la respuesta del robot es una respuesta estadística que, con la información que ha almacenado ofrece un desenlace, «pero ese desenlace aunque puede ser exacto no tiene porqué ser necesariamente justo». Por ello ha augurado que una robotización de la justicia será un modelo que «tiende a fosilizar» la justicia.

Finalmente, ha concluido aceptando que la inteligencia artificial «es un instrumento valiosísimo» pero que, aún así, el dictado de la sentencia siempre tendría que estar supervisado por el juez. «La posibilidad de defenderse y de ser juzgado públicamente son derechos y los conflictos sociales tienen que ser resueltos por jueces no por robots», ha dicho.

Comenta

Deja una respuesta

Tu mail no será publicado.


*


Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.