We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Tecnología
Minority Report en las policías europeas: llegan los sistemas de predicción de delitos
La comisaria europea de Derechos Humanos alerta del uso de algoritmos en sistemas policiales y judiciales de la Unión que atentan contra los derechos ciudadanos.
Algoritmos para predecir en qué zonas es más probable que tengan lugar robos u otro tipo de crímenes, algoritmos para ayudar a decidir si imponer prisión preventiva o no a una persona pendiente de juicio. Los algoritmos han llegado y también lo han hecho a los sistemas policiales y judiciales europeos. Y de ello alerta la comisaria de Derechos Humanos en el Consejo de Europa, Dunja Mijatović. “Aunque aún se encuentran en sus etapas experimentales, el uso de algoritmos de aprendizaje automático en los sistemas de justicia penal es cada vez más común”, afirma Mijatović en un texto publicado en la web del Consejo de Europa en el que señalaba los resultados “potencialmente discriminatorios” de este tipo de programas de predicción de delitos.
Como ejemplo, cita PredPol, un programa diseñado por el departamento de policía de Los Ángeles (Estados Unidos) en colaboración con la Universidad de California en Los Ángeles (UCLA) que extrapola los datos de estadísticas criminales CompStat —sí, esa que usaban los policías de la serie The Wire—. ¿Cómo funciona? En la web de PredPol se explica que calcula las predicciones en base a tres tipos de datos: tipo de crimen, localización y fecha y hora. No usa información personal, ni demográfica, étnica o socioeconómica —se afirma en la web—, y los resultados se representan en un Google Map en el que se localizan las áreas con más alto riesgo de delitos cada día y en cada turno. En 2013, la policía de Kent (Reino Unido) compró los derechos de uso del programa por 100.000 libras anuales. Lo probó durante cinco años y en noviembre de 2018 desechó su uso, anunciando que seguirían trabajando en esa dirección, con un nuevo proyecto o construyendo su propio sistema. “Predpol tenía un buen historial de predecir dónde es probable que se cometan los crímenes”, afirmaba entonces John Phillips, superintendente de la policía de Kent, al Financial Times. “Lo que es más difícil es demostrar que hemos podido reducir el crimen con esa información”.
Este programa de algoritmos, así como otros parecidos usados en otras zonas de Reino Unido —como Manchester, Yorkshire o West Midlands— fueron criticados por organizaciones como Big Brother Watch en un informe en el que citaban estudios realizados sobre este tipo de sistemas que concluían que estos refuerzan patrones ya existentes de discriminación y dan lugar a una retroalimentación, conllevando que la policía sea enviada a vecindarios en los que ya hay una presencia excesiva de policías, independientemente de la tasa real de criminalidad.
Otro de los sistemas de algoritmos a los que hace referencia la comisaria de Derechos Humanos europea es la Herramienta de Evaluación de Riesgo de Daños (HART por sus siglas en inglés), usada por la policía de Durham, también en Reino Unido, para decidir si mantener o no a un sospechoso de un delito en custodia o si derivarlo a un programa de rehabilitación. Para ello, Hart utiliza hasta 34 categorías diferentes de datos que van de la edad y el sexo al historial delictivo. Y, al menos hasta abril, también usaba el código postal del sospechoso, lo que desde Big Brother Watch señalan que deriva en la criminalización de la pobreza. Un informe de 2018 elaborado por el Royal United Services Institute for Defence and Security Studies —que no es precisamente un lobby conservador en cuanto a tecnología aplicada a defensa y seguridad— también alertaba de que sistemas como Hart “reproducirán inevitablemente los sesgos inherentes a los datos que se les proporcionan”, lo que perjudicará a las minorías étnicas y religiosas.
Pero más allá de la experiencia británica, este tipo de sistemas de algoritmos también han llegado a otros países de la Unión Europea, como Italia, donde el sistema XLAW se usa en Nápoles y Venecia para prevenir robos, o en Alemania, donde el sistema Precobs —que suena aún más a los precons de Minority Report— se usa ya, de manera corriente o en fase piloto, en los cantones de Aargau, Basel, Baden-Württemberg, Babaria, en Sajonia y en Zug. Precobs también se usa desde 2013 en Zurich (Suiza) para prevención de robos en viviendas.
En España, este tipo de sistemas predictivos también han comenzado a hacerse hueco. A finales de 2015 Rivas (Madrid) fue el primer municipio en comenzar a experimentar con el sistema Pred-Crime. Su policía local lo usó durante nueve meses tras los cuales lo descartaron. “Necesita seguir desarrollándose para ser realmente eficaz”, señalan a El Salto desde el prensa del Ayuntamiento. Diseñada por EuroCop Security Systems, empresa constituida en 2004 y que a día de hoy cuenta con doce empleados y, en 2017, facturó 3,7 millones de euros —casi el doble que en los dos ejercicios anteriores—. En España, su administrador único y director general, financiero, comercial, de márketing y de informática es Ramón García Esteve.
También en 2015, desde la Policía Nacional se comenzó a desarrollar un sistema parecido de la mano del policía científico Miguel Camacho Collados, que en 2014 había recibido una beca Fullbright para estudiar este tipo de sistemas, en colaboración con la Universidad de Granada, la UCLA y la Policía de Los Ángeles, siguiendo la senda de PredPol. Aunque no hay más información sobre el posterior desarrollo de este sistema, desde finales de 2018 sí entró en fase piloto en la Policía Nacional otro sistema basado en algoritmos, en este caso para detectar denuncias falsas, Veripol, también desarrollado por Camacho e instalado ya en todas las comisarías.
Relacionadas
Inteligencia artificial
Inteligencia artificial Los creadores rechazan las licencias ampliadas para el uso de sus obras en la IA: “Es un genocidio cultural”
Inteligencia artificial
PAN 06X02 Abrazar el ludismo, radicalizarse contra la IA
Inteligencia artificial
PAN 06X01 Vuelve el PAN, integral, pero sin IA
En españita los órganos fascistas PN y GC lo hacen desde hace ochenta años.
La IA tiene el sesgo ideológico de quien la elabora. Es tendenciosa y discriminatoria como toda la estadística en que se basa.
Vamos hacia una idiotización colectiva.