Inteligencia artificial
La política parlamentaria comienza a tomar en serio las violencias de la inteligencia artificial y el big data

Unidas Podemos y Más País inician el camino hacia una agencia estatal de algoritmos que controle el uso de los mismos por parte de las instituciones públicas y empresas. Las voces técnicas y de la academia lo ven con buenos ojos, pero indican que en la mayoría de los casos no es suficiente
Inteligencia artificial 4

Gobierno y Más País anunciaron el 16 de noviembre un acuerdo para crear una agencia pública que controle los algoritmos en el país. Este acuerdo ha venido impulsado por una enmienda a los presupuestos generada por Más País que se orientaba hacia la creación de una agencia estatal de la inteligencia artificial que contaría con un presupuesto de 5 millones.

El 25 de noviembre de 2021 tendrá lugar en el Congreso de los Diputados un debate que supone un hito en la historia parlamentaria, se discutirán “los usos permitidos de los mecanismos de inteligencia artificial (IA) relativos a los sistemas de vigilancia masiva y las tecnologías que valoran las conductas de las personas de forma predicitiva”. Así lo especifica la Propuesta No de Ley (PNL) presentada al Congreso por Unidas Podemos.

Esta PNL, que ha contado con el asesoramiento de Aitor Jiménez, investigador postdoctoral en la Universidad de Melbourne, insta al Gobierno a promover el desarrollo de estudios técnicos para promover una normativa sobre el uso de la IA por parte de las Fuerzas y Cuerpos de Seguridad del Estado, establecer garantías sobre la seguridad del uso de estos sistemas en términos de no discriminación, crear un marco jurídico que regule las consecuencias de sus malos usos y garantizar la transparencia técnica de los algoritmos.

Héctor Tejero: “No queremos llegar al punto de EE UU donde hay algoritmos por doquier sin ningún tipo de control”
Estas peticiones van encaminadas en la misma dirección que la de la posible Agencia Estatal de Control de IA que controle el diseño, el funcionamiento y los usos de los algoritmos en materia de seguridad y vigilancia de la sociedad. “Esta agencia sería un un horizonte deseable a partir de la PNL. Este movimiento es de impulso legislativo, queremos llevar el tema a la cámara y generar posicionamientos”, responde a El Salto Ismael Cortés, diputado por Unidas Podemos en el Congreso, portavoz de la Comisión de Interior, Seguridad Nacional, Ciencia y ODS, que firma esta PNL.

Algoritmos sin control

El pasado 4 de noviembre, Más País anunciaba el registro de la enmienda a los Presupuestos Generales del Estado que finalmente ha sido acordada con Gobierno. Héctor Tejero, diputado y coordinador político de la formación e impulsor de la enmienda, coincide con Cortés en que por el momento estos movimientos responden a “poner el tema en agenda y empezar a trabajar para desarrollar una ley que determine las funciones de esta agenda, no queremos llegar al punto de EE UU donde hay algoritmos por doquier sin ningún tipo de control”.

El texto presentado por Cortés señala algunos usos en otros países para alertar sobre posibles futuros que puedan darse dentro de nuestras fronteras, como caso del metro de Moscú, que ha habilitado un sistema de pago por reconocimiento facial basado en 206.000 cámaras instaladas que, en palabras del alcalde de la ciudad “se convertirá en la red más grande del mundo, solo rivalizada por los sistemas chinos”.

Llama especialmente la atención la licitación publicada en julio de 2021 por el Cuerpo Nacional de Policía para el suministro de un sistema automático de identidad digital biométrico por 4.400.000 euros

Según cita el texto, diversas organizaciones como Humans Rights Watch, Amnistía Internacional, Algorithm Watch o la Agencia Española de Protección de Datos han han mostrado su preocupación por los peligros que entrañan los avances en la implementación de este tipo de sistemas. Además de mencionar el ya conocido sistema de crédito social chino, el texto de UP recuerda también la campaña Reclaim Your Face en la que un amplio número de diputados ha enviado cartas a la Comisión y al Parlamento Europeo destacando los riesgos para la garantía de derechos fundamentales.

“Estamos siguiendo muy de cerca los recientes casos que se han filtrado de Facebook y el impacto que tenían sus algoritmos a la hora de captar la atención de la juventud durante las 24 horas, y que lo siguiesen usando a pesar de saber que estaba acarreando serios problemas de salud mental. Al ser un caso mediático, aunque estemos lejos de controlar a Facebook, nos sirve para hacer presión en el debate”, añade Cortés. Tejero coincide y añade que “por eso es tan importante que un organismo de control saque informes especializados y reglados sobre las consecuencias de los usos de estos algoritmos. No puede ser que esta batalla contra gigantes de las telecomunicaciones esté solo en manos de personas de la academia que apenas tienen financiación o, peor aún, que los informes vengan encargados por las propias empresas”.

Hay, sin embargo, numerosos usos de algoritmos diseñados y utilizados por instituciones públicas o empresas privadas que operan día a día en distintas esferas del ámbito público del Estado español. Renfe publicó un anuncio de una licitación para un sistema de análisis de vídeo y reconocimiento basado en parámetros como el género, la vestimenta o el origen étnico para aplicarlo en 25 estaciones de ciudades de Madrid, Andalucía, Catalunya o Euskadi. “Recabar datos relacionados con el origen étnico sin el consentimiento explícito de las personas está prohibido por las leyes de protección de datos de la UE, pero no se trata solo de eso, ¿qué es la vestimenta? La vestimenta es clase social. Construir modelos predictivos en base a esto es muy grave”, señala Cortés.

Llama especialmente la atención la licitación publicada en julio de 2021 por el Cuerpo Nacional de Policía para el suministro de un sistema automático de identidad digital biométrico por 4.400.000 euros. “No sabemos nada de esta licitación, no existe ninguna herramienta ni grupo que pueda auditar esto. No sabemos si esto ya está operativo o si está siendo probado. Queremos que haya un estudio técnico de las posibles consecuencias adversas que pueda tener el uso de estos sistemas aún cuando se ajusten al marco legal. Sobre todo en el ámbito policial, hay un peligro de que se utilice para construir perfiles de criminalidad y peligrosidad. Es dar pábulo a un racismo que ya existe, sustentándolo en un aura de objetividad”, añade Cortés. “El plazo para la recepción de ofertas acabó el 10 de agosto pero tampoco sabemos a qué empresa le han dado finalmente el encargo”.

Laboral
Tecnología laboral Inteligencia artificial al servicio de tus jefes
La industria que desarrolla inteligencia artificial para entornos laborales crece y se desarrolla a grandes pasos. Principalmente se utiliza para contratar, organizar, vigilar empleados y predecir rendimiento.

Cómo regular distintos tipos de algoritmos

Recomendación de música o audiovisuales, sistemas de identificación por reconocimiento facial, emparejamientos en aplicaciones para ligar, puntuaciones a la hora de optar para un trabajo, mediciones de la eficiencia en el mismo, sugerencias de productos en plataformas de gigantes comerciales. A la hora de clasificar los algoritmos o sistemas de machine learning (ML) encontramos varias categorías que son más bien difusas, lo cual dificulta su catalogación a la hora de aproximarse a su regulación. “A pesar de estas zonas difusas, hay dos ejemplos claros en los que la administración pública debe intervenir: los usos de la propia administración y los usos laborales y comerciales”, indica Tejero. 

Desde Más Madrid ponen el foco en las figuras de la Comisión Nacional de Mercados y Competencia (CNMC) o la Autoridad Independiente de Responsabilidad Fiscal española (AIREF) como modelos jurídicos a imitar. “La CNMC es una organización formalmente independiente del Estado, aunque los consejeros son designados por el Gobierno, que controla, por ejemplo, el sector eléctrico o que no haya estafas en los acuerdos comerciales”, apunta Tejero. “Tiene capacidad de sanción y en este sentido la entidad reguladora de algoritmos debería ser igual. Si tu algoritmo está discriminando o haciendo daño y tú lo sabes, tienes que ser sancionado”.

Las mayores partidas de dinero invertidas en proyectos de inteligencia artificial se dan para el desarrollo de sistemas de uso policial

La AIREF en su contenido quizá no sea el mejor ejemplo ya que fue creada por el Gobierno de Mariano Rajoy para controlar el gasto público, “pero nos interesa en su forma, ya que emite informes públicos independientes, podrían servir para tratar de presionar a las compañías que se escapen a un control directo del Estado como Facebook”, añade.

En el ámbito de uso de algoritmos por parte de empresas privadas, cuando estas son consultadas al respecto, como ha ocurrido en el caso de Just Eat, por ejemplo, se defienden alegando que los algoritmos son lo que les permite ser competitivas en el mercado y suelen aludir a la comparación con la fórmula secreta de la Coca-Cola para defenderse frente a posibles controles. “La Coca-Cola, igual que cualquier producto, tiene que pasar por unos controles sanitarios y existen mecanismos como los acuerdos de confidencialidad para facilitar esta supervisión sin poner en riesgo la fórmula del éxito de estas empresas”, sentencia Tejero.

En cuanto al recorrido de esta iniciativa, los representantes de ambos partidos reconocen que se encuentra en un estado embrional que depende de los resultados de debates posteriores, pero ven con optimismo la recepción en otras fuerzas parlamentarias. “Que esto salga adelante o no va a depender de la negociación, pero ha sonado bien. Ahora lo importante es que entre en las agendas para crear ese armazón legislativo que regule una realidad que ya forma parte de nuestras vidas cotidianas”, dice Tejero. “En el arco de la izquierda, Bildu, Más País o Esquerra están haciendo declaraciones muy posicionadas al respecto”, coincide Cortés.

Moratoria de sistemas

Hay voces técnicas y académicas expertas que señalan el peligro de la mera implementación de estos sistemas, más allá de la crítica a los sesgos, y que exigen a los gobiernos una moratoria en el uso de estos sistemas, es decir, regular y controlar primero y, si acaso, aplicar después. La razón principal es la falta de herramientas técnicas y regulatorias para poder desempeñar una labor real de control sobre este tipo de software.

No obstante, Tejero propone algunos modelos que, bajo su perspectiva, podrían resultar útiles: “Generalmente tenemos una visión distópica de los algoritmos, como una herramienta que solo sirve para el control y la vigilancia, que lo son, pero se pueden usar también para el bien. Por ejemplo con el fraude fiscal o el laboral, los algoritmos pueden detectar este tipo de cosas si los entrenas para estas labores concretas. El Ministerio de Trabajo ha sacado una herramienta de prevención de fraude que va en esta linea. De todos los contratos temporales, busca cuáles son sospechosos de poder incurrir en ilegalidades y no sanciona, envía una advertencia señalando que hay algo raro. Solo eso, hace que la gente regularice. También se pueden entrenar para agilizar los trámites para las ayudas”.

Lorena Jaume-Paulasí: “La estadística nos sirve para entender movimientos en masa de la sociedad, pero no para predecir comportamientos de personas individuales con sus especificidades. Partir de esa premisa es erróneo”

Un control del Gobierno no garantiza, por el momento, un uso libre de discriminación. Javier Sánchez, profesor en la UCO e investigador sobre Inteligencia Artificial, publicaba recientemente un hilo de Twitter con algunos casos discriminatorios que había analizado para un seminario para la Fundación del Secretariado Gitano. Señalaba, entre otros, proyectos de gestión algorítmica desde el Estado con fin social presentaban sesgos racistas: “Durante el primer confinamiento comprobaron que en varias ciudades el SEPE no daba citas para los trámites de ayudas si ponían el código postal de barrios gitanos. Al cambiarlo a cualquier otro de la ciudad había citas disponibles”. Una odisea para algunas que, como señalaba alguien en la red social, recuerda a una versión española de Yo, Daniel Blake.

Qué algoritmos está usando la policía

“Los servicios policiales pueden usar la tecnología en su propio beneficio si están preparados para ello y pueden desarrollar las herramientas y métodos adecuados. Ahora se trata de la supervivencia del más fuerte, entre las fuerzas del orden y los delincuentes. Tenemos que adaptarnos e innovar constantemente”. Estas son palabras de Anita Hathenberg, directora de Innovación de Interpol en una conferencia de 2020.

Las mayores partidas de dinero invertidas en proyectos de inteligencia artificial se dan para el desarrollo de sistemas de uso policial. El investigador y periodista Ekaitz Cancela explicaba en este medio este mismo año cómo medio de centenar de ayuntamientos en siete comunidades autónomas se habían gastado más de 5,4 millones de euros en contratar servicios a Eurocop Security Systems (una cantidad mayor que la destinada a la agencia de control de todos estos sistemas), una empresa española que trabaja con sistemas de predicción de crímenes sin ningún tipo de control o auditoría.

Ana Valdivia, investigadora en el London King's College: “Me sorprende mucho que Veripol haya pasado los estándares de revisión de máquinas que usan ML porque incumple varios puntos de seguridad”

Acerca de este sistema, Lorena Jaume-Paulasí, fundadora de The Ethical Tech Society, centrada en la investigación de la ética de la digitalización y la automatización, contaba en una entrevista realizada en un podcast de El Salto que este sistema se engloba en el grupo de tecnologías que se están empezando a usar en la Unión Europea y que “no se trata de una predicción realmente, sino de sistemas que tratan de evaluar si lo que una persona está haciendo se parece a lo que otras personas que han hecho justo en el momento antes de cometer un crimen o acto violento. La estadística nos sirve para entender movimientos en masa de la sociedad, pero no para predecir comportamientos de personas individuales con sus especificidades. Partir de esa premisa es erróneo”. El hecho es que muchísimos de estos usos predictivos han sido ilegalizados en Estados Unidos, Países Bajos, Australia o Polonia.

Otro de los sistemas que aplica actualmente la policía es Veripol, un proyecto que arrancó en 2015 y comenzó implementándose en Andalucía en 2018. Desde el año 2019 opera en comisarías de todo el Estado. Cuando alguien denuncia un robo con violencia en una comisaría, Veripol trata de catalogar si está mintiendo. Según datos de 2020, el 35% de informes redactados por los agentes que recogen denuncias fueron presentados a Veripol para que determinase si eran falsas o no. Jaume-Paulasí lo cataloga como “una especie de polígrafo que, en lugar de aplicarse a personas sospechosas se aplica a personas que están presentando una demanda”.

Ana Valdivia, investigadora en el London King's College especializada en ética algorítmica por la justicia social revisó para su investigación todo lo publicado respecto a Veripol. “Me sorprende mucho que haya pasado los estándares de revisión de máquinas que usan ML porque incumple varios puntos de seguridad. Solo utilizaron 1.122 denuncias para entrenar el algoritmo, que son muy pocas. No es consistente ni robusto. Otro de los problemas, que es de primero de ML, es que a la hora de entrenarlo hay que tener un subgrupo de datos clasificados por el grupo de control que el algoritmo no vea y después te sirvan para comprobar la efectividad del mismo. Esto tampoco lo han usado en Veripol y permite trampear las tasas de éxito”.

Para Ana Valdivia, Viogen es un sistema que “una vez más pone el foco en la víctima y no en el agresor, por lo que el problema no estaría en los sesgos sino en la herramienta en sí”

Otra de las cuestiones que señala Valdivia es la forma de entrenar al algoritmo. Estas 1.122 denuncias han sido catalogadas durante dos años como falsas y verdaderas por un solo policía experto que las categorizaba a mano. El algoritmo lo que hace es reproducir el criterio de una persona experta en base a sus criterios de palabras clave.

La robustez de un algoritmo reside también en la cantidad de personas que crean y distribuyen etiquetas en los casos para el entrenamiento. Por ejemplo, el algoritmo categoriza que la palabra ‘bolso’ está más asociada a una denuncia falsa que la palabra ‘mochila’. También cataloga con un riesgo mayor la palabra ‘Apple’ respecto a otras marcas. En el primer caso ya no hablamos solo de sesgos machistas sino de una técnica que no se basa en ningún presupuesto científico. “Es una distorsión extremadamente grande que recuerda al juego del teléfono escacharrado”, opina Jauma-Paulasí.

El periodista Michele Catanzaro realizó para Algorithm Watch una investigación en profundidad sobre otro de los juguetes de última generación usados por la policía: Viogen, un sistema que cataloga el riesgo de una víctima de violencia machista en el momento de la denuncia. Asigna una puntuación que debería orientar al policía para decidir el nivel de protección que necesita la denunciante. Se hace a través de una larga lista de preguntas y es un proceso que puede llegar a alargarse hasta dos horas en el momento de la denuncia.

La directiva de Facebook sabía que su algoritmo causaba profundas heridas en la salud mental de los jóvenes y, a sabiendas de ello, decidió apostar por mantenerlo en pos de los beneficios.

Supuestamente, el agente tiene que valorar si la respuesta de Viogen es adecuada o si debe actualizarla, siempre a la alta, no puede a la baja. Para Catanzaro, que atendió a este medio en una entrevista radiofónica hace unos meses, “hay evidencias de que en el 95% de los casos los agentes se lo toman como una caja negra y no cuestionan el resultado, que viene envuelto en un aura de objetividad falso”.

Desde colectivos de psicología y grupos activistas feministas se ha señalado que el momento de la denuncia ante el agente es uno de los más traumáticos para la mujer. Es reseñable el hecho de que se pueda catalogar un riesgo como bajo, cuando la mera situación de acudir a denunciar ya supone un riesgo en sí misma. Para Valdivia, se trata de un sistema que “una vez más pone el foco en la víctima y no en el agresor, por lo que el problema no estaría en los sesgos sino en la herramienta en sí”.

“Hablan de algoritmo, pero realmente hablamos de un sistema de promedio pesado que asigna pesos a las respuestas a una batería de preguntas, a pesar de que los detalles del propio algoritmo no están publicados. Yo los pedí en su momento y me los negaron”, añade el periodista. “Ha sido diseñado por un grupo de expertos del ámbito académico, como Antonio Andrés Pueyo, y de la propia policía, como Juan José López-Ossorio, que han elegido las preguntas basadas en estudios académicos previos”. Llama la atención el hecho de que no haya ninguna mujer implicada en el equipo líder que ha diseñado el proyecto en sus etapas iniciales. De hecho Catanzaro señala que hasta su última actualización el sistema no incluía variables relativas a la violencia ejercida sobre los hijos e hijas.

Regular es necesario, pero no suficiente

Valdivia se muestra escéptica a la hora de valorar la apuesta por una agencia estatal de algoritmos. Opina que “en eso hay que ir con cuidado porque esas agencias pueden acabar justificando estos usos y ponerse de lado de actores privados, cosa que no nos extrañaría. Está el caso de NIST en EE UU, un instituto supuestamente independiente que audita algoritmos de reconocimiento facial de varias empresas y no realiza lecturas críticas del uso de dichos algoritmos. Acaban haciendo análisis cuantitativos que auditan los niveles de rendimiento y sesgos. Les dicen a los gobiernos cuál es el mejor sistema para denegar demandas de asilo”.

Comenzando por las GAFAM, es un hecho que hay un poderoso bloque de lobbies que están presioniando fuertemente a los gobiernos de todo el mundo para que apuesten sobre el tecnosolucionismo, en clave de aceleración y mejora de la eficiencia en decisiones que desde los organismos de protección de derechos se vienen denunciando. De hecho el uso de muchos de estos sistemas, como señalaba Cortés, ya viola las regulaciones vigentes y no ocurre nada. La directiva de Facebook sabía que su algoritmo causaba profundas heridas en la salud mental de los jóvenes y, a sabiendas de ello, decidió apostar por mantenerlo en pos de los beneficios. En caso de que fuesen multadas estas compañías, ¿ocurriría lo mismo que con aquellas que son multadas por emisiones y contaminación pero siguen con su actividad a pesar de ello? 

“El algoritmo no está mal, es el sistema y el contexto en el que se usa el que lo está. La crítica no puede quedarse en el algoritmo, ¿necesitamos multas o un cambio completo de paradigma?”, se pregunta Valdivia. Como recado a quienes se encarguen de legislar en torno a todo esto, Jaume-Paulasí deja la reflexión de mirar hacia fuera del campo puramente técnico e integrar en la solución a los colectivos sociales que sufren las consecuencias de los mismos: “Hay que mirar a los grupos que no se dedican a auditar algoritmos, pero que analizan los contextos y su trabajo es aún, si cabe, más importante. Todo lo que sea cuestión de violencia de género o discriminación social”.

No obstante y a pesar de las alertas sobre posibles riesgos, las voces técnicas y académicas consultadas para esta pieza reconocen que es una buena noticia y un buen camino a seguir.

Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra en tu cuenta.

Relacionadas

Opinión
Opinión IA: un proyecto tecnosupremacista
La pregunta que me hice hace algunos años fue: ¿Por qué existe un evidente interés en “crear la cuestión de la IA”, cuando las tecnologías y las lógicas que la componen están ya operativas desde hace años?
Economía social y solidaria
Tecnología Inteligencia Artificial y economía solidaria: ¿posibles aliadas?
¿Cómo debe relacionarse la economía solidaria con una tecnología que vulnera derechos humanos y ambientales constantemente? Cooperativas e investigadoras tecnológicas animan al movimiento a perderle el miedo y a utilizarla de manera crítica.
Inteligencia artificial
Resistencia ante la IA en pos de una transición justa Resistencia ante la IA en pos de una transición justa
No se puede concebir una transición justa sin cuestionar el engranaje de la inteligencia artificial
Antimilitarismo
Rearme El gasto militar mundial se dispara
El gasto militar en el planeta aumentó en 2024 un 9,4% respecto a 2023, lo que supone el mayor incremento interanual desde la Guerra Fría.
Eléctricas
Sistémica eléctrico Del lobby nuclear a la burbuja de las renovables: comienza la pugna por encontrar al culpable del apagón
Un crecimiento desmedido de las renovables guiado por intereses corporativos y una red eléctrica que no ha sido actualizada a la nueva realidad energética son algunas de las causas señaladas del apagón del 28 de abril.
Electricidad
Apagón Pedro Sánchez: los protocolos de emergencia siguen activos y se abrirá una investigación
El presidente del Gobierno ha comparecido ante los medios de comunicación tras presidir la reunión del Consejo de Ministros para explicar las cuestiones abordadas en relación con la crisis eléctrica.
Energía
Energía El gran apagón de abril | El suministro de energía se recupera al 99%
Pedro Sánchez explica que se produjo una “pérdida” del 60% de la electricidad a las 12:33h: “15 gigavatios se han perdido súbitamente del sistema en apenas 5 segundos. Aproximadamente el 60% del sistema eléctrico”.
Pobreza energética
Energía Apagón crónico: lugares donde no volverá la luz, a pesar de la restauración del sistema eléctrico
Miles de personas en el Estado español viven día a día apagones y falta de suministro en lugares como Cañada Real (Madrid), la Zona Norte de la ciudad de Granada o los asentamientos de jornaleras y jornaleros migrantes en Huelva y Almería
Opinión
Opinión Provoquemos la próxima interrupción
Lo que nos resta es gobernar el apagón que habrá de venir, ser la causa colectiva de las próximas interrupciones, aquellas que lleven al fin de este mundo desbocado y sin sentido.
Energía
Energía La ley marca permisos retribuidos para situaciones como el apagón eléctrico
El Estatuto de los Trabajadores, en su artículo 37.3, protege a la plantilla cuando no es posible llegar a su puesto de trabajo o desarrollar con normalidad su tarea en situaciones como no tener electricidad durante horas.
Electricidad
Apagón ¿Qué le puedo reclamar a la empresa eléctrica y al seguro tras el apagón?
Tras el incidente con la electricidad de este lunes 28 de abril, los consumidores deben conocer qué pueden reclamar a las compañías de la luz o a sus seguros.

Últimas

Eventos
Evento Un Salto al periodismo desde el barrio: acompáñanos en un directo sobre periodismo situado
El Salto organiza un evento centrado en el potencial de los formatos sonoros para transmitir información veraz y fiable de forma cercana. Para hacer periodismo desde el barrio y barrio desde el periodismo.
València
València La jueza de la dana acorrala al relato político de Mazón
El president viaja a Estados Unidos la semana en la que el PP europeo celebra su congreso en València y no acudirá a la multitudinaria romería de Santa Faz.
Crisis climática
Informe Las diez empresas más contaminantes del país son responsables de un quinto de las emisiones españolas
Repsol mantiene el podio gris de empresa más contaminante que le arrebató a Endesa en 2020. Completan el top 10 de compañías más emisoras energéticas, cementeras y siderúrgicas, que copan entre ellas el 56% de las emisiones del mercado de carbono.
El Salto Radio
El Salto Radio Desmantelando E2 I El racismo institucional y sus grietas
Las redes de apoyo mutuo y la actitud de compartir privilegios son herramientas imprescindibles para combatir los impactos del racismo estructural.
Comunidad de Madrid
Energía El apagón en Madrid, en imágenes
En Madrid, la gran urbe ha permanecido incrédula al pasar de las horas, entre rescates en el Metro, en el Cercanías y en ascensores, donde han quedado atrapadas algunas personas.
Opinión
Opinión La luz de lo público durante el gran apagón
El fundido del sistema eléctrico ahonda en las grandes preocupaciones del siglo XXI. También en el diagnóstico fundamental de necesidad de refuerzo de los servicios públicos.
Más noticias
Economía
Inflación El IPC baja al 2,2% en abril y el PIB crece un 0,6% en el primer trimestre
La economía crece una décima menos que el último trimestre de 2024 y la inflación subyacente sube cuatro décimas hasta el 2,4%.
Opinión
Opinión La hostilidad del fin del mundo
Me da por pensar qué tal vez estoy haciendo algo mal, que tal vez tuve que aprovechar las cuatro horas atrapado en un coche para grabar un documental o un reel sobre la necesidad de parar.
Comunidad de Madrid
Comunidad de Madrid Arranca el segundo día de huelga en la educación madrileña
Hoy están llamados a la jornada de protesta en los ciclos de Infantil, Primaria, Secundaria, FP y Educación Especial. Se planea una nueva fecha para la manifestación conjunta con universidad que no pudo celebrarse ayer por el apagón.

Recomendadas

Senegal
Migraciones El mito de la migración ordenada: la denegación de visados por el Consulado de España en Dakar
Maltrato institucional. Estas dos palabras son las más escuchadas cuando se pregunta a personas descontentas con el Consulado de España en Dakar. Cada vez más personas denuncian denegación de visados que no consideran justificados.
Guinea-Bissau
Internacional Guinea-Bissau arranca una ola de represión tras el sabotaje popular de una mina de arena en un parque natural
Una acción liderada por las mujeres del pueblo de Varela provocó un incendio en la bomba de extracción de la mina de arena pesada. El Gobierno ha llevado a cabo la detención de 16 personas, entre las que se encuentran líderes locales.
Galicia
Galicia Vigo, A Coruña y Ourense compraron material policial a Israel por medio millón de euros en solo cuatro años
El alcalde ourensano, Gonzalo P. Jácome, adjudicó un contrato por 70.000 euros días después del siete de octubre. Abel Caballero firmó otro de más de 200.000 euros y la alcaldesa de A Coruña siguió la estela con un contrato de 170.000 euros.