Big data
[Podcast] Big Data, machine learning y justicia social: mitos y realidades

El equipo de El Salto Radio entrevista en el hacklab de La Ingobernable a Javier Sánchez, doctor en informática que estudia las relaciones entre la justicia social con el aprendizaje automático o machine learning. Una de las técnicas más desarrolladas de inteligencia artificial que procesa nuestros datos para todo tipo de funciones relacionadas con la gestión de las ciudades.

Redes Sociales

publicado
2018-10-14 06:00:00


Hace unas semanas, Ahora Madrid presentaba con orgullo un acuerdo para compartir los datos de los ciudadanos con Google a través del proyecto Waze Connected Citizens. La idea es suministrar información de los datos de tráfico para generar algoritmos que permitan optimizar el transporte de la ciudad. Un plan del tipo “no es que sobren coches, es que están mal gestionados”.

El de la capital no es el único ayuntamiento que celebra su metamorfósis hacia la ciudad inteligente. Las ciudades corren en pos de conseguir el apellido smart city. En su horizonte se encuentra la optimización de servicios y la extracción de datos masiva. Sin embargo, no debemos olvidar a todas las personas que viven en ellas sin conexión digital. En 2017 en la Comunidad de Madrid un nada desdeñable 10% de la población no había usado internet en el momento de la encuesta, y un 15% decía no ser usuaria frecuente.

Para Javier Sánchez, doctor en informática que investiga en la universidad de Cardif, en Reino Unido, cada vez que ha aplicado bases de datos digitales a cuestiones sociológicas, “siempre ha sido un desastre”. Sánchez estudia las relaciones entre la justicia social con el aprendizaje automático o machine learning, una de las técnicas más desarrolladas de inteligencia artificial que procesa nuestros datos para todo tipo de funciones relacionadas con la gestión de las ciudades.

Nos encontramos con él en La Ingobernable, uno de los espacios de la ciudad donde tienen lugar los hacklabs en Madrid, pero nos indica que fue miembro de un grupo de hacklab en Granada. Estas reuniones, escenarios en algunas de las obras de Belén Gopegui, son espacios sin jerarquías a los que podemos acudir a aprender sobre la tecnología con una perspectiva crítica. Precisamente viene a iniciar un debate en torno a las relaciones entre datos y justicia social.

Sánchez se muestra crítico con el escaso rigor con el que aparece representado cualquier producto asociado al Big Data en la prensa general y divulgativa. Incluso los medios críticos participan de la mistificación de esta tecnología, “creyendo que los grandes datos ofrecen una forma superior de inteligencia y conocimiento”.

Nada más lejos de la realidad, según el estudio de Sánchez estos algoritmos reproducen los mismos prejuicios que ya se dan en los sistemas humanos y los amplifican. Los escasos puntos críticos que aparecen en la prensa derivan hacia preguntas del tipo “¿deberían ser sujetos legales los algoritmos?”, “¿tienen derechos los robots?” y otros temas que contribuyen a la mitificación, sacando del foco los problemas discriminarorios reales que presentan estos algoritmos.

Por otro lado tenemos lo que denomina como “sociólogos y periodistas de Twitter”. Las grandes compañías tecnológicas ponen en manos de periodistas e investigadores sus datos, porque esto hace que aumente su valor. El problema surge cuando estos datos se utilizan para medir factores como “¿de qué se está hablando?”, cuando ya el mero hecho de centrarnos solo en una compañía presenta un sesgo importante.

Existen ya casos en EEUU donde los algoritmos han decidido cortar ayudas sociales, son utilizados para distinguir entre supuestos terroristas y refugiados, o directamente se convierten en tu jefe, como ocurre aquí en plataformas como Deliveroo. Para Sánchez existe un grave problema en la aplicación directa de estos algoritmos para asuntos sociológicos. “Si lo comparamos con los medicamentos, que son también científicos, jamás se nos ocurriría pensar en su implementación sin haberlos probado, y esto es lo que está ocurriendo con estos programas”.

¿Cómo reproducen estos algoritmos los prejuicios de nuestras sociedades? La clave para el investigador reside en las bases de datos, que ya se encuentran llenas de prejuicios. Por ejemplo, si vamos de nuevo a los EEUU, existen programas de predicción de crímenes por áreas en ciudades. Pero estos programas funcionan con bases de datos de las demarcaciones policiales, que históricamente han puesto su foco en barrios racializados, por lo que la máquina hará lo mismo.

Aunque la mayoría de ejemplos de reconocimiento facial y extracción y uso de datos los encontremos en ciudades de Estados Unidos o China (el conocido sistema de puntuación ciudadana), existen ya varias ciudades españolas que han trazado su hoja de ruta hacia los puertos smart city. Pero el aprendizaje automático ya existe en nuestras vidas cada vez que usamos el texto predictivo o cualquier motor de búsqueda en internet. Pensar que estos sistemas no reproducen y amplifican nuestros prejuicios es ingenuo. Aun así dejamos que escriban por nosotros y elijan la información que veremos sobre el mundo.

“Creo que es importante señalar que al final, lo que estás haciendo es automatizar una serie de decisiones políticas ideológicas y de prejuicios en muchos casos. Realmente es difícil hacer un sistema de toma de decisiones libre de estos problemas”, finaliza Sánchez.

Si quieres escuchar la entrevista al completo, escucha el podcast que se encuentra al inicio del artículo. En la pieza, por orden de aparición, suenan las siguientes canciones:

- Loud Pipes, Ratatat.

- Fallout, The Rat.

- Erik Owen, Youngblood Brass Band.

- Wake Up, Brass Against con Sophia Urista.

Relacionadas

Tecnología
[Podcast] Post Apocalipsis Nau #14
La muerte laboral del trabajador de Glovo. Los conflictos en torno a la creación de infraestructura de 5G y el mal rollo que nos dan los replicantes.
Ciberactivismo
[Podcast] Post Apocalipsis Nau #11
Memefascismo y magdalenas traigo, contra la apropiación de símbolos. X-Net nos cuenta que "no existe ningún bulo que no haya sido financiado".
Ciberactivismo
[Podcast] Post Apocalipsis Nau #10 Ekaitz C.
Ekaitz Cancela habla acerca de la colonización digital que desactiva nuestras democracias. Presentamos Neobarna y Lil Puto XXL presenta su queer trap.
3 Comentarios
#24451 17:36 14/10/2018

Gracias! Ya tenía ganas de volver a escucharos.

Responder
2
0
#24498 17:39 15/10/2018

Cuidadin con el Big Data que lo calcula el diablo.

Responder
0
0
Pseudo Anónima/o 2:36 15/10/2018

El Big data (le dijo al padre a la hija; está feo...). Pa cuando pai andalú ? País calle rojas, 76 ... Me gusta como suena... La bandera... Será un ojal con fondo marrón... Esa es mi pregunta

Responder
0
0

Destacadas

Banca
El miedo a las comisiones bancarias

La pérdida de confianza en las entidades financieras es recurrente desde que ocurrieron cosas como la estafa de las preferentes o el rescate bancario, y esta desconfianza incluye a la banca ética.

Humor
‘Ideología intrafamiliar’

Nueva entrega de las colaboraciones especiales de Mauro Entrialgo para El Salto

Infancia
Ana María Bayo: “Servicios Sociales te dice que denuncies; lo que venga detrás ya te lo comes sola”
La tercera de las mujeres a las que se ha intentado relacionar con una presunta “trama” para secuestrar niños a través de la asociación Infancia Libre no ha sido acusada por sustracción de menores. Tampoco se ocultó con su hija ni pasó por la consulta de la pediatra de Granada.
Gordofobia
Magdalena Piñeyro: “Creo en el poder de lo colectivo para sanar la vida gorda”

La activista y escritora acaba de publicar 10 gritos contra la gordofobia. Grita porque, dice, ya está cansada de responder con argumentos a los mismos juicios sobre las personas gordas.

Culturas
Un ‘selfie’ en Chernóbil

El selfie es la representación de una historia, de cada una de nuestras historias. Y, por lo tanto, forma parte —es un hilo— de los telares de la historia. La historia misma es una representación, al igual que el selfie.

Partidos políticos
A la portuguesa o a la turca
3

La táctica del presidente en funciones está definida ya. Su plan puede funcionar a corto plazo, pero eliminar la política de su programa de Gobierno acarrea importantes riesgos.

Últimas

Sanidad
Cuando una imagen vale más que 100.000 palabras

A la geriatría no la humillan los trabajadores, no señores míos, la humillan los grupos empresariales que sin tener ni idea de servicios sociales juntan en su cartera de negocios gasolineras, cadenas de supermercados, activos inmobiliarios y ahora la nueva moda, centros geriátricos.

Fronteras
“Si no hubiésemos estado ahogándonos en la frontera, hubiesen venido a salvarnos”

El colectivo Caminando Fronteras publica su informe Vida en la Necrofrontera, una denuncia contra las políticas fronterizas que recupera la memoria de más de un millar de personas muertas o desaparecidas en su intento de llegar al Estado español por la Frontera Sur.

Antiespecismo
La historia de River
2
River es un cerdo rescatado por personas voluntarias del Santuario El Hogar. Su cuerpo está marcado por una vida de explotación. Esta es su historia.
Extrema derecha
Abascal, aliado del Likud israelí y a su vez del presidenciable pinochetista, hijo de un oficial de Hitler

Santiago Abascal niega una y otra vez que él y su partido sean de ultraderecha. Defiende posiciones de ultraderecha día tras día, sus aliados internacionales son de ultraderecha, pero teme que un reconocimiento explícito de su ideología alerte a electores ingenuos y haga repensar ciertos apoyos.

Polución
Madrid Central: nuevo récord de aire limpio en los 22 primeros días de junio

Con los datos de junio, Madrid Central habría conseguido por tercer mes consecutivo reducir los niveles de dióxido de nitrógeno a mínimos históricos.

Polución
45 millones de personas respiraron aire contaminado en España en 2018

El informe La calidad del aire en el Estado español 2018 señala que, pese a que la inestabilidad atmosférica alivió la polución, el 97% de la población y el 92% del territorio estuvieron expuestos a niveles superiores a los recomendados por la OMS.