Big data
[Podcast] Big Data, machine learning y justicia social: mitos y realidades

El equipo de El Salto Radio entrevista en el hacklab de La Ingobernable a Javier Sánchez, doctor en informática que estudia las relaciones entre la justicia social con el aprendizaje automático o machine learning. Una de las técnicas más desarrolladas de inteligencia artificial que procesa nuestros datos para todo tipo de funciones relacionadas con la gestión de las ciudades.

Redes Sociales

publicado
2018-10-14 06:00


Hace unas semanas, Ahora Madrid presentaba con orgullo un acuerdo para compartir los datos de los ciudadanos con Google a través del proyecto Waze Connected Citizens. La idea es suministrar información de los datos de tráfico para generar algoritmos que permitan optimizar el transporte de la ciudad. Un plan del tipo “no es que sobren coches, es que están mal gestionados”.

El de la capital no es el único ayuntamiento que celebra su metamorfósis hacia la ciudad inteligente. Las ciudades corren en pos de conseguir el apellido smart city. En su horizonte se encuentra la optimización de servicios y la extracción de datos masiva. Sin embargo, no debemos olvidar a todas las personas que viven en ellas sin conexión digital. En 2017 en la Comunidad de Madrid un nada desdeñable 10% de la población no había usado internet en el momento de la encuesta, y un 15% decía no ser usuaria frecuente.

Para Javier Sánchez, doctor en informática que investiga en la universidad de Cardif, en Reino Unido, cada vez que ha aplicado bases de datos digitales a cuestiones sociológicas, “siempre ha sido un desastre”. Sánchez estudia las relaciones entre la justicia social con el aprendizaje automático o machine learning, una de las técnicas más desarrolladas de inteligencia artificial que procesa nuestros datos para todo tipo de funciones relacionadas con la gestión de las ciudades.

Nos encontramos con él en La Ingobernable, uno de los espacios de la ciudad donde tienen lugar los hacklabs en Madrid, pero nos indica que fue miembro de un grupo de hacklab en Granada. Estas reuniones, escenarios en algunas de las obras de Belén Gopegui, son espacios sin jerarquías a los que podemos acudir a aprender sobre la tecnología con una perspectiva crítica. Precisamente viene a iniciar un debate en torno a las relaciones entre datos y justicia social.

Sánchez se muestra crítico con el escaso rigor con el que aparece representado cualquier producto asociado al Big Data en la prensa general y divulgativa. Incluso los medios críticos participan de la mistificación de esta tecnología, “creyendo que los grandes datos ofrecen una forma superior de inteligencia y conocimiento”.

Nada más lejos de la realidad, según el estudio de Sánchez estos algoritmos reproducen los mismos prejuicios que ya se dan en los sistemas humanos y los amplifican. Los escasos puntos críticos que aparecen en la prensa derivan hacia preguntas del tipo “¿deberían ser sujetos legales los algoritmos?”, “¿tienen derechos los robots?” y otros temas que contribuyen a la mitificación, sacando del foco los problemas discriminarorios reales que presentan estos algoritmos.

Por otro lado tenemos lo que denomina como “sociólogos y periodistas de Twitter”. Las grandes compañías tecnológicas ponen en manos de periodistas e investigadores sus datos, porque esto hace que aumente su valor. El problema surge cuando estos datos se utilizan para medir factores como “¿de qué se está hablando?”, cuando ya el mero hecho de centrarnos solo en una compañía presenta un sesgo importante.

Existen ya casos en EEUU donde los algoritmos han decidido cortar ayudas sociales, son utilizados para distinguir entre supuestos terroristas y refugiados, o directamente se convierten en tu jefe, como ocurre aquí en plataformas como Deliveroo. Para Sánchez existe un grave problema en la aplicación directa de estos algoritmos para asuntos sociológicos. “Si lo comparamos con los medicamentos, que son también científicos, jamás se nos ocurriría pensar en su implementación sin haberlos probado, y esto es lo que está ocurriendo con estos programas”.

¿Cómo reproducen estos algoritmos los prejuicios de nuestras sociedades? La clave para el investigador reside en las bases de datos, que ya se encuentran llenas de prejuicios. Por ejemplo, si vamos de nuevo a los EEUU, existen programas de predicción de crímenes por áreas en ciudades. Pero estos programas funcionan con bases de datos de las demarcaciones policiales, que históricamente han puesto su foco en barrios racializados, por lo que la máquina hará lo mismo.

Aunque la mayoría de ejemplos de reconocimiento facial y extracción y uso de datos los encontremos en ciudades de Estados Unidos o China (el conocido sistema de puntuación ciudadana), existen ya varias ciudades españolas que han trazado su hoja de ruta hacia los puertos smart city. Pero el aprendizaje automático ya existe en nuestras vidas cada vez que usamos el texto predictivo o cualquier motor de búsqueda en internet. Pensar que estos sistemas no reproducen y amplifican nuestros prejuicios es ingenuo. Aun así dejamos que escriban por nosotros y elijan la información que veremos sobre el mundo.

“Creo que es importante señalar que al final, lo que estás haciendo es automatizar una serie de decisiones políticas ideológicas y de prejuicios en muchos casos. Realmente es difícil hacer un sistema de toma de decisiones libre de estos problemas”, finaliza Sánchez.

Si quieres escuchar la entrevista al completo, escucha el podcast que se encuentra al inicio del artículo. En la pieza, por orden de aparición, suenan las siguientes canciones:

- Loud Pipes, Ratatat.

- Fallout, The Rat.

- Erik Owen, Youngblood Brass Band.

- Wake Up, Brass Against con Sophia Urista.

Relacionadas

Ciberactivismo
[Podcast]Post Apocalipsis Nau #18 Ciberguerra
Hablamos con Javi Herrera sobre la ciberguerra y las iniciativas de ciberpaz que surgen desde la sociedad civil. En Memética Avanzada analizamos seriamente el fenómeno Storm Area 51
Refugiados
[Podcast] Post Apocalipsis Nau #16
Ekaitz Cancela abre con una reflexión sobre la moneda de Facebook, Libra. Conversamos de datos biométricos de refugiados y seguridad informática.
Tecnología
[Podcast] Post Apocalipsis Nau #14
La muerte laboral del trabajador de Glovo. Los conflictos en torno a la creación de infraestructura de 5G y el mal rollo que nos dan los replicantes.
3 Comentarios
#24498 17:39 15/10/2018

Cuidadin con el Big Data que lo calcula el diablo.

Responder
0
0
Pseudo Anónima/o 2:36 15/10/2018

El Big data (le dijo al padre a la hija; está feo...). Pa cuando pai andalú ? País calle rojas, 76 ... Me gusta como suena... La bandera... Será un ojal con fondo marrón... Esa es mi pregunta

Responder
0
0
#24451 17:36 14/10/2018

Gracias! Ya tenía ganas de volver a escucharos.

Responder
2
0

Destacadas

Residuos
El verano agrava los problemas con la basura de las ciudades españolas

La temporada estival supone un pico en la generación de residuos. A los peligros asociados a los incendios que generan los vertederos se une la saturación de las plantas a la hora de tratar la basura.

Sexualidad
De conjugaciones relacionales

Tres personas conversan sobre cómo entienden los vínculos, la atracción o la confianza. No son expertas ni teóricas, pero tienen mucho que decir.

Brasil
Open Democracy accede a documentos de Bolsonaro en los que planea acabar con el Amazonas

La organización Open Democracy ha tenido acceso a una presentación de PowerPoint en la que se habla de discurso de odio e intenciones de segregación contra la población del Amazonas, así como la construcción de varios proyectos que acabarían con uno de los pulmones del planeta.

Racismo
La cuenta pendiente de Alemania con la comunidad afrodescendiente

Alemania ha realizado un esfuerzo titánico para saldar cuentas con su pasado nazi: no hay calle o plaza en la que no se recuerde a las víctimas del Holocausto, ya sea a través de las famosas stolpersteine o con monumentos, placas y homenajes, como los que tienen lugar cada 9 de noviembre en la sinagoga de Berlín (noche en que se produjo la kristallnacht) y al que acuden los más altos dignatarios. Pero poco o nada se habla del pasado colonial del país y la comunidad afroalemana sigue siendo invisible.

Últimas

Ecofeminismo
¿Por qué molesta Greta Thunberg?
Asististimos una virulenta reacción contra Greta Thunberg que ignora deliberadamente el espacio Fridays for Future, niega el cambio climático y tiene su buena dosis de machismo
Accesibilidad
No, Badajoz no es una ciudad accesible
Cualquier salida por pequeña que sea desde su domicilio es, para las personas con discapacidad motora, una auténtica prueba de obstáculos
Vivienda
La zona cero de la gentrificación en València

La gentrificación que sufren barrios del centro de la ciudad como Russafa y Ciutat Vella supone una violencia económica que amenaza y expulsa al vecindario de toda la vida y lo sustituye por nuevas clases sociales.

Menores migrantes
Salima: “Ahora yo estoy decidiendo mi futuro”

Salima, de Nador (Marruecos), cruzó sola la frontera con Melilla cuando tenía 16 años. Dos años después llegó a Málaga, también sola. Es una de las niñas que ha dejado atrás su país y su familia en busca de un futuro mejor.