Tecnopolítica
Gobernar los algoritmos contra el hechizo tecnocrático

Entrevista a Frank Pasquale, uno de los principales investigadores de la convergencia entre el derecho y la inteligencia artificial
Frank Pasquale 2008
17 oct 2022 14:31

Frank Pasquale es profesor de derecho de la Brooklyn Law School (EEUU) y uno de los principales investigadores en la convergencia entre el derecho y la inteligencia artificial (IA), los algoritmos y el aprendizaje automático. En 2015 publicó el influyente ensayo The Black Box Society: The Secret Algorithms That Control Money and Information (Harvard University Press). En él, Pasquale describe críticamente cómo los sistemas computacionales, cada vez más ubicuos, funcionan de maneras deliberadamente opacas en la atribución de reputación, la búsqueda de información y las finanzas, y cómo esto influye en la toma de decisiones en el sector público y en el privado. En su último libro, titulado New Laws of Robotics: Defending Human Expertise in the Age of AI (Harvard University Press, 2020, el autor hace un giro propositivo para explorar cómo el derecho y la política influencian la adopción de la IA en varios campos profesionales. Además, Pasquale forma parte de la U.S. National Artificial Intelligence Advisory Committee (NAIAC), que asesora al presidente de los EEUU y a la National AI Initiative Office at the Department of Commerce norteamericana.

Nota: esta entrevista ha sido editada para facilitar su lectura

En Black Box Society, tu anterior libro publicado en 2015, reflexionabas sobre la opacidad y el secretismo en la industria tecnológica y sus consecuencias en la sociedad. De hecho, expones una paradoja: cuanto más se protege el secreto empresarial (al menos en Estados Unidos) más desprotegida está la privacidad de los ciudadanos en la economía digital.

Siete años después, el mundo es un lugar bastante diferente. “New Laws of Robotics” se basa en este análisis, pero propone una serie de normas para construir entornos de trabajo más justos y seguros en los que la IA funcione como un asistente que aumente las capacidades humanas, convirtiéndose en una especie de Inteligencia Aumentada. ¿Cuál es la relación entre estos dos trabajos?

Creo que lo principal de “Black Box Society” (traducido al castellano como “La sociedad de la caja negra”)  es que es una obra muy crítica. Me alarmó mucho la evolución hacia el secretismo que se dio tanto en el ámbito empresarial como en el gubernamental.  Sigo trabajando en esa línea, pero también creo que es importante plantear una visión positiva. 

Construir esta visión positiva es un trabajo duro porque todo el mundo puede estar de acuerdo en que hay un problema, en cuanto se empieza a tratar de resolver empiezan a aparecer los desacuerdos.  Fue por eso que decidí plantear las nuevas leyes de la robótica.

Por ejemplo, ¿qué habría que hacer con la política, la economía y las instituciones sociales para resolver el problema de la caja negra, donde procesos mediados técnicamente se vuelven opacos? Resolver ese problema implica, en parte, tener respeto por las profesiones que nos ayudan a entender la sociedad en lugar de amenazar su continuidad con la automatización.  

Del mismo modo, también creo que hay que tratar de desarrollar el ethos de servicio y educación en muchos trabajos que deberían ser considerados como fundamentales. A nivel general, diría que “New Laws of Robotics” se sitúa en la sociología del trabajo para apuntar a cómo el trabajo y la automatización puede mejorar lo laboral, en lugar de simplemente aumentar los beneficios. Propone tratar a la persona trabajadora como alguien que se implica y añade valor, en lugar de considerarla una fuente de datos para la extracción de valor.

Luego, si vamos a áreas más específicas, como la medicina por ejemplo, vemos cómo el uso de las tecnologías que utilizan IA van en aumento, y esto va en relación, a veces, a su cajanegrización. Precisamente porque lo que sucede dentro de la máquina puede ser tan determinante, es importante que las personas profesionales de la medicina entiendan lo que está pasando.  Ejemplos de ello son las IA que se utilizan para diagnosticar el cáncer, o para ayudar a alguien que está sufriendo una crisis de salud mental. En estos casos, creo que es importante que haya unos parámetros profesionales claros, y esto es lo que discuto en el libro de sobre las leyes de la robótica.

La opacidad con la que funciona un sistema de IA puede dar lugar incluso a una suerte de pensamiento mágico, precisamente porque no sabemos entender cómo funciona.

Exactamente. Este junio hubo la famosa controversia en torno a LaMDA, donde un ingeniero de Google dijo que este gran modelo de lenguaje era consciente, que era algo parecido a una persona. Creo que esta afirmación es una mistificación y al mismo tiempo un intento de ganar poder. Tal vez su objetivo era ser la primera persona en luchar por los derechos de una IA y liberarla. 

La IA y la computación no deben falsificar la humanidad.

Pro creo que lo realmente problemático aquí es que un software propietario pueda ser considerado una persona. Esta mistificación sucede porque Google tiene el control de un volumen enorme de datos y una capacidad masiva de computación. Esto es lo que hace posible que esta empresa pueda crear modelos capaces de simular personas. Pero si a la IA se le dieran derechos parecidos al de un ser humano, estaríamos permitiendo que estas empresas pudieran, por ejemplo, crear un número infinito de “personas” para que voten, y de esta manera seguir impulsando su agenda política. 

La cuestión que planteo en “New Laws of Robotics” es que la IA y la computación no deben falsificar la humanidad....y creo que lo de LaMDA es una falsificación. Si estamos dispuestos a entender este tipo de sistemas como una caja negra y no mirar qué hay detrás de la cortina, seremos engañados. Pero tan pronto como miremos dentro de la caja negra y veamos qué es lo que sucede ahí, veremos que es ridículo afirmar ese supuesto.

Los algoritmos como los de calificación (rating), orientación (targeting) y predicción no sólo informan decisiones, sinó que también las automatizan. Estos algoritmos desempeñan una enorme agencia en la configuración de nuestra estructura social y económica, así como de nuestro comportamiento colectivo e individual. La auditoría de algoritmos se encarga de entender cómo funcionan, comprender cuáles son sus impactos en la sociedad e identificar quiénes son responsables de sus consecuencias.

¿Cuáles serían las características de una gobernanza justa y democrática de los algoritmos? ¿Qué tipo de organizaciones la llevarían a cabo? Y por último, ¿qué tipo de perfiles profesionales se necesitan para articular dicha regulación?

Creo que para gobernar realmente bien los algoritmos, en primer lugar, tiene que haber una gran inversión de recursos en la capacidad técnica tanto de los reguladores en el gobierno como de las instituciones de la sociedad civil que se dedican a analizar tecnologías. Por ejemplo, Helena U. Vrabec ha hecho un gran trabajo sobre los derechos de acceso a la regulación sobre privacidad (GDPR en inglés) de la Unión Europea, y ha demostrado que lo ideal es que existan grupos de la sociedad civil que presionen por el acceso a los datos y que intenten que los algoritmos rindan cuentas, es decir, que sean auditables.

Para llevar esto a cabo se necesita que las entidades gubernamentales combinen científicos sociales, abogados e ingenieros informáticos que juntos puedan entender esto, al tiempo que los periodistas sean capaces de comunicar el derecho público.

De hecho, creo que esto no solamente aplica a los algoritmos, sino también debe tenerse en cuenta cuando pensamos en regular lo que tiene que venir. Tenemos que poder diseñar procesos de planificación que nos permitan regular algo nuevo mientras nos aseguramos de que tenemos tanto el conocimiento técnico como los recursos legales para hacerlo correctamente. Pero también es importante ser capaces de comunicar por qué esa regulación es importante. 

Porque el gran problema al que creo que se enfrentan los órganos reguladores es que la gente dice, “Facebook tiene mis datos, va a decidir las noticias que veo y las que no”, pero parece que no les importa. Entonces aparecen publicaciones norteamericanas como The Markup o Pro Publica, o la ONG alemana Algorithms Watch y hacen un reportaje en profundidad que dice “espera un segundo, ¿sabes que la gente está siendo perjudicada por esto?”. Dar visibilidad a estos casos ayuda a mantener un sentido de vigilancia y protección.

Al contrario, algunos políticos dirán que las empresas tecnológicas no deben ser reguladas porque son las gallinas de los huevos de oro. Otros quizás levantarán la voz para advertir del poder de los algoritmos y el potencial daño que pueden hacer. Si la gente no tiene cierta comprensión del problema, se terminará creyendo la afirmación del primer político.

Precisamente para ayudar a generar conciencia participé en la fundación de una asociación llamada Law and Political Economy (Ley y economía política). Ahí hemos hecho varios talleres sobre, por ejemplo, la financiación de la educación superior; sobre la deuda de los estudiantes; sobre la regulación financiera y otro sobre el cambio climático. Hemos tratado de reunir a la gente para llevar los mejores trabajos académicos a Washington y decirles “miren, aquí hay consenso, tienen que hacer algo”.

En términos de regulación y auditoría de la IA, EEUU y Europa son bastante diferentes. ¿Cuáles son sus principales diferencias y cómo se afectan mutuamente?

En resumen, se explica en dos niveles. Uno bastante conocido es que la libertad de expresión parece ser el principal valor público en EEUU. Hay que tener en cuenta que esto se da bajo una versión norteamericana del libertarianismo, donde los derechos individuales son más importantes que los colectivos. Mientras tanto, en Europa parece que la dignidad comunitaria parece ser prioritaria, y es aquí donde se sitúa también el derecho a la privacidad.

Y eso lleva a dos direcciones muy diferentes en los Estados Unidos. Todo lo que se haga para regular los algoritmos va a tener algún tipo de reclamo -algunos son válidos, muchos otros son más bien fantasiosos- de que viola la libertad de expresión. Porque el algoritmo está diciendo algo, y por lo tanto quien sea el dueño de esa expresión formal puede hacer ese reclamo.

Un segundo leitmotiv que yo identificaría es lo que se llama productivismo frente al consumismo. Creo que en EEUU hay un consumismo extremo que hace que la ciudadanía se identifique como consumidora. Desde ese lugar, aparece el derecho fundamental de conseguir lo que quieres cuando quieres al menor precio posible. Esa es la ideología fundamental de gran parte de los Estados Unidos y creo que lo es cada vez más también en Europa.

Y sin embargo, en Europa también hay una fuerza compensatoria muy fuerte de los productores que se oponen a los consumidores, y creo que el productivismo es un valor fundamental que ayuda a justificar la desaceleración del uso de algoritmos.

Podríamos decir que lo que los consumidores quieren ahora mismo son las aplicaciones, la IA y la robótica. Algo que he descubierto recientemente es que, en última instancia, podría no ser bueno para ellos. Te explico cómo lo aprendí: estaba en Montjuic, en una de las montañas de Barcelona, y traté de parar a un taxi, pero no pude encontrar ninguno. Me desesperé y busqué un Uber, pero vi que no está disponible en esta ciudad.

En los EEUU, muchos reaccionarían diciendo “¿El Estado me está impidiendo pedir un Uber?”. La percepción sería la de una violación de derechos como consumidor. Pero abrí la App Store y encontré una aplicación de Taxi Barcelona y funcionó. Y ahora estoy apoyando una app que es local y que quizás está vinculada a un servicio público. Y aunque no estoy seguro de que sea así, por lo menos no es la misma imposición que hace Uber y sé que estoy haciendo alguna cosa positiva, que probablemente ayude. 

En cualquier caso, creo que es apropiado que nuestro gobierno tenga la prerrogativa de decir a la gente “pensamos que esta aplicación en particular no es buena”, y dar la oportunidad de probar otras que creen otras reglas del juego.  

Más allá de este tipo de regulaciones hay opciones más radicales. En el artículo que escribes junto a Gianclaudio Malgierim en el New York Times, afirmas que habría que prohibir el uso de la IA en situaciones no consensuadas que pueden implicar discriminación tales como el reconocimiento de emociones, los diagnósticos de salud mental, la atribución de etnicidad y la detección de mentiras. Esto resuena con las crecientes voces de la izquierda que abogan por la abolición de ciertas tecnologías como las criptomonedas, por ejemplo. ¿Puedes desarrollar un poco más sobre por qué ciertas tecnologías deberían ser prohibidas? 

Este es un tema realmente importante, pero primero quiero destacar que llamar ‘tecnología’ a algo es peligroso. Imaginemos que estamos regulando la conducción en carretera y el Estado dice que no se puede cambiar de carril 10 veces en un minuto. Hoy en día nadie diría “dios mío, están prohibiendo cambiar de carril, se está prohibiendo todo lo que tenga que ver con la tecnología del automóvil”. Pero de repente si decimos que queremos detener el reconocimiento facial para la atribución de etnicidad, parece que queremos detener toda la tecnología1.

Creo que tenemos que romper el hechizo de la tecnología como una especie de necesidad superior que no debe ser regulada. 

Dicho esto, creo que la abolición de determinadas tecnologías es un tema importante, y me alegro que hayas mencionado las criptomonedas. Como todo el mundo sabe, el Proof of Work (el protocolo que certifica, de forma distribuida y sin necesidad de confianza, que una transacción se ha hecho dentro de la cadena de bloques sobre la que opera determinada criptomoneda) es un desastre ecológico. Y la industria lleva años diciendo “estamos a punto de hacer que el Proof of Stake necesite mucha menos energía”, pero todavía no funciona. Siendo realistas, la manera más eficiente de evitar estas consecuencias ecológicas es prohibiendo el uso de Proof of Work. China, por ejemplo, prohibió el minado de bitcoin.

Pero volviendo a las consecuencias de nombrar a las cosas de determinadas maneras, hay un artículo muy interesante de Emiliy Tucker, la directora del Center on Privacy & Technology de Georgetown Technology, que dice que en su centro evitarán utilizar los términos ‘Inteligencia Artificial’ y ‘Aprendizaje Automático’ (Machine Learning en inglés). Esta investigadora reconoce que la idea de IA ha reunido un montón de mentes sabias y brillantes cambiando el futuro de la computación y el análisis predictivo, pero que actualmente estas tecnologías tan poderosas se han aglutinado bajo un eslógan de marketing con una carga emotiva muy intensa. 

Estoy muy de acuerdo en que hoy se abusa del término IA. Por ejemplo, como cuando se utiliza un algoritmo de 20 pasos para determinar el riesgo de reincidencia en los presos en Wisconsin.

Tal vez tengamos que dejar de hablar de ‘IA’ y ‘tecnología’ y encontrar una forma totalmente nueva de hablar de ello.

Tal vez utilizar estas palabras nos convierte en cómplices de la sobrevaloración de ciertos modos de relaciones sociales que implican máquinas que a su vez impulsan industrias que concentran cantidades enormes de capital.

Y es cierto que hablar de IA te garantiza atención y te facilita recibir fondos del gobierno. Además, los gobiernos pagan por conferencias y expertos y también se preocupan por hacer leyes y políticas. Pero tenemos que detenernos a pensar por qué sucede eso. Qué es lo que nos lleva a tomar las decisiones que tomamos.

Langdon Winner publicó en 1980 un artículo titulado “¿Tienen política los artefactos?”. En él, Winner explica cómo una máquina recolectora de tomates desarrollada por la Universidad de California en 1940 y mejorada con el tiempo, condujo a una reducción de los costes de producción de tomates, pero también a una concentración de la capacidad productiva y de la riqueza. La mecanización de la recogida de tomates provocó una disminución del 85% de los productores de tomate en 13 años. El aumento de la eficiencia y la productividad condujo a la destrucción de muchas comunidades agrícolas.

Hoy en día, la IA está intensificando la concentración de los medios de producción y la riqueza en la economía digital a través, también, de la centralización de la propiedad de los datos y los derechos de autor de los algoritmos. Esto tiene como consecuencia el aumento de las ganancias para los que están en la cima, mientras un número creciente de personas son empujadas a la precarización laboral.   

Según el economista Aaron Benanav, autor de ”Automation and the future of work“, los cambios a los que estamos asistiendo se explican por lo que él llama la crisis global de sobreproducción, en la que los capitales se desplazan de la industria a la tecnología y las finanzas debido al estancamiento de la industria. En una economía en la que hay más gente que trabajo disponible, ¿cuál es el lugar de la Inteligencia Aumentada, sobre todo teniendo en cuenta que el trabajo industrial se ha desplazado a países con mano de obra barata y una protección de los trabajadores mucho más laxa que en el norte global?  

¿Cómo crees que la regulación algorítmica puede ayudar a romper estas inercias?

En primer lugar, creo que cuanto más conscientes somos de la importancia del bienestar humano, más capaces somos de dar forma al mundo social. El problema no es la falta de trabajo, sino seguir enfocándolo como siempre lo hemos hecho2.

Quiero cuestionar la narrativa de que no hay suficiente trabajo por hacer.

La cuestión es de dónde van a salir los recursos financieros para que la gente pueda hacer lo que no se está haciendo. Por ejemplo, ahora mismo, aquí en Barcelona, estamos respirando un aire bastante contaminado. Podría haber más gente trabajando en este problema. Para solucionarlo, mucha gente diría que se necesitan, sobre todo, capacidades y conocimientos técnicos. Personalmente discrepo con eso, y aún así, hay mucho trabajo para hacer a nivel de cuidados. Es cierto que la automatización va a liberar mucho tiempo de trabajo, pero a la vez hay que trabajar en el desarrollo y fortalecimiento de nuevas habilidades, muchas de ellas relacionadas a los cuidados y el bienestar. No veo que el desarrollo tecnológico lleve a la falta de empleo. Creo que en realidad es un problema de prioridades y distribución de recursos. Doy otro ejemplo: en mi ciudad, New York, probablemente mucha gente podría trabajar reparando y limpiando el metro, y seguramente un cuarto de ellos podría hacerlo permanentemente. Ahora mismo, el metro está decrépito y necesita un trabajo que no se está haciendo.

¿Cómo abordar esta problemática? Una respuesta simplista sería: si la preocupación está en la concentración de la riqueza, la solución está en incrementar los impuestos, gravando y redistribuyendo desde arriba. 

Esto es importante, evidentemente, pero por otro lado también pueden crearse y reforzarse estructuras profesionales y de trabajo que eviten la relación entre automatización y desempleo. De eso también trata “New Laws of Robotics”, de cómo se puede crear un sentido de identidad profesional y responsabilidad, de construir un determinado dominio de la acción que incremente la tranquilidad y seguridad entre las personas profesionales. 

Tanto en “The Black Box Society” como en “New Laws of Robotics” aparecen referencias a la ciencia ficción. Además de funcionar como cuentos con moraleja (o lo que tu llamas ”profecía autopreventiva“), ¿cómo crees que la ficción, o, más ampliamente, la imaginación radical, puede ser útil para abordar los problemas sociotécnicos emergentes?

Una de las cosas realmente importantes que podemos recuperar de la buena literatura, el cine y el arte creo que es el sentido de sutileza e incomputabilidad3. Por ejemplo, si comparamos las seis reacciones de Facebook para la emoción, con un relato que describe emociones en una nueva novela, veremos que se abre un abismo. Me gustaría que la gente tenga la libertad de articularse de maneras muy complejas y divergentes también en entornos digitales. Ahora mismo, el diseño de las plataformas nos limita a decir “estoy feliz, triste o enojado”. Somos mucho más que los personajes de “Inside Out” de Disney.

Por otro lado, la literatura también nos permite jugar con los escenarios. Yo trabajo mucho en la evaluación de políticas. Una de estas propuestas trata, por ejemplo, de limitar el parque automovilístico de una ciudad solamente a coches eléctricos. Actualmente, el modo de evaluación de políticas se basa en una suma de costes y beneficios. Si vemos que los beneficios superan los costes, entonces tiramos adelante. Creo que este es un enfoque muy simplista. De hecho, lo realmente interesante es entender la diversidad y riqueza de posibilidades que pueden surgir de este tipo de decisiones. Ante una decisión importante aparecen un montón de escenarios, tanto positivos como negativos, que hay que tener en cuenta, y para ello se necesita una descripción narrativa detallada. En estos casos, para poder predecir las consecuencias de nuestras decisiones necesitamos construir las visiones más honestas y complejas de los posibles futuros, pero eso no es todo.

Utilizar la imaginación y la ficción también ayuda a pensar en lo que haría posible un futuro mejor. Nos ayudan a imaginar qué tipo de conversaciones de mayor escala tendríamos que tener.

Creo que esta es una de las lecciones que nos deja el sociólogo Jens Beckert cuando escribe sobre la relación entre la economía y las expectativas de futuro.

En general, creo que este tipo de pensamiento está relacionado con cierto refinamiento psicológico que se produce con la exposición a la buena cultura. Si tenemos discusiones en ese plano, creo que estaremos mejor equipados, en tanto que decisores y participantes políticos, para pensar con claridad en qué tipo de futuros queremos embarcarnos.

El profesor de derecho de la universidad de Harvard, Roberto Unger Mangabeira, habla en un artículo sobre la falta de imaginación jurídica y de la necesidad de fomentarla. Esto es especialmente interesante teniendo en cuenta que el derecho contribuye a estabilizar el cambio social. ¿Cómo puede el derecho utilizar la especulación para mejorar su impacto a la hora de abordar los retos contemporáneos?

Roberto Unger es el único profesor de derecho que conozco que no sólo es un gran teórico social, sino que también va más allá de las teorías sociales, interesándose por la plasticidad del poder. Creo que, efectivamente, necesitamos esa imaginación. Al respecto, recuerdo una controversia que se dió en la Academia Legal de Estados Unidos sobre la relación entre derecho y la literatura.

Lo que inició ese movimiento fue el libro de James Boyd White ”The Legal Imagination“, que es un texto muy bonito que habla sobre la necesidad de que los abogados tengan una sensibilidad literaria poética. Lo triste es que hubo ataques increíblemente duros contra esta posición, en particular desde la rama de la  economía jurídica. 

En relación a todo esto, Richard Posner, que creo que es uno de los teóricos menos imaginativos, o de los que menos simpatizan con una sensibilidad literaria, publicó un libro con Harvard Press titulado  “Law and Literature” que se volvió muy influyente. Básicamente dice que, en la ley, lo literario es ornamental y que no añade ni visión ni profundidad. Hacer esta afirmación me parece, como poco, muy desacertada. 

Creo que primero tenemos que pensar cómo utilizamos la IA. Por ejemplo, lo que yo esperaría ver entre los médicos y los hospitales sería un interés por la mejora de la calidad de su servicio, tratando de utilizar la IA para interpretar los datos que tienen a disposición. Habitualmente, el argumento que se utiliza en IA aplicada a la medicina es que cuantos más datos tengamos, mejor, ya que eso nos ayudará a encontrar más patrones y por lo tanto, a curar mejor las enfermedades.

Creo que tu pregunta busca imaginar otras formas de valor, imaginar otras formas de recogida de datos que pueden no ser interoperables, de modo que eviten daños mayores. Esto, de alguna manera, conduciría a formas de conocimiento que no serían posibles en el contexto de gran escala. Creo que en este cambio aparece una cuestión interesante para pensar el futuro de la IA, el futuro del análisis estadístico, la computación y las muchas formas en que afecta a los humanos.

Quizás en otro ámbito donde podamos abordar el diferente uso de datos en distintos contextos es en el periodismo, ya que para hacer el análisis sociológico, diferentes periódicos utilizan diferentes métricas. Hay un estudio que explica cómo estos modelos y los datos disponibles han jugado un papel distinto en la prensa de EEUU y Francia.

Además, la idea de una gestión y procesamiento local de los datos abre una tercera vía que puede permitirnos salir de los debates actuales en torno a la IA. Por un lado tenemos aquellos que defienden la innovación tecnológica a cualquier precio, y por otro quienes tratan de frenar esta inercia para regularla. Creo que esta tercera vía nos permite hacer experimentos a nivel local y comprender más profundamente su funcionamiento y consecuencias. Esto es muy difícil de hacer cuando el conocimiento está concentrado, por ejemplo, en Mountain View, California, desde donde se analiza lo que le sucede a diez mil millones de personas.

Ahora me gustaría explorar contigo la idea de Data Commons (procomún de datos), con la que hemos trabajado en Tecnopolítica, que apunta a marcos de gobernanza en los que el control y el valor de los datos no pueda ser concentrado en pocas manos, y en los que dichos datos sean utilizados para el bien común y permanezcan bajo control comunitario. Esta idea también va más allá de las regulaciones e iniciativas centradas en el control individual de los datos personales, apuntando hacia la centralidad de la dimensión colectiva.

¿Qué tipo de marco legal podría imaginarse para dar a los trabajadores los medios de producción algorítmica y la capacidad de redistribuir su riqueza? ¿Conoce alguna experiencia en este sentido?

Aunque no he entrado en detalle a pensar en la idea de data commons, tu pregunta me hace pensar en cómo los conductores de Uber y Ola de los Países Bajos desafiaron a las empresas para tener acceso a los datos y a su procesamiento. Este caso prueba, por lo menos inicialmente, que hay maneras de conseguir cierto nivel de participación colectiva en la comprensión de los datos que están involucrados en algunos trabajos.

Otro caso es el del bossware, una forma coloquial de llamar el software es utilizado por jefes o recursos humanos para vigilar a sus trabajadores. La Ley de Derechos de Privacidad de California, que es muy reciente, reconoce el derecho de los individuos para acceder a sus datos como trabajadores. Así que por ahí hay otro punto de entrada desde el que continuar trabajando. Quizás el desafío es el de pasar del conocimiento al control de los datos en entornos laborales, pero eso ya una cuestión mucho más complicada.

1) En este documento del European Data Protection Board puede encontrarse un ejemplo de recomendación de regulación de IA de alto riesgo, en particular respecto a la identificación biométrica en espacios públicos con el fin de hacer cumplir la ley.

2) Al respecto, Toni Navarro publicó en Atenea Cyborg el artículo “Del postrabajo al subempleo: desmontando el discurso de la automatización”.

3) En relación a la idea de incomputabilidad Pasquale recomienda leer “Privacy As Protection of the Incomputable Self: From Agnostic to Agonistic Machine Learning” de Marie Hildebrandt.


 

 





Archivado en: Tecnopolítica
Sobre este blog
Atenea cyborg es un espacio de Tecnopolitica.net (red asociada al IN3 de la UOC) dedicado a explorar los conflictos y las contradicciones de nuestro tiempo, un tiempo marcado por la tecnopolítica y la tecnociencia. Es un lugar desde el que destejer la urdimbre de la ciencia, la tecnología y la sociedad contemporáneas para imaginar otros mundos y vidas posibles. Por un giro retrofuturista, aquí la vieja Atenea no es ya diosa sino cyborg y no es una sino muchas; ya no está sola, pero sigue en pie de guerra.
Ver todas las entradas
Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra en tu cuenta.

Relacionadas

Ocupación israelí
Tecnología y genocidio palestino El evangelio según Google
Las tecnologías digitales están siendo utilizadas para librar la guerra, perseguir y reprimir a la población palestina y controlar el relato a escala internacional
Opinión
PROGRESO El momento Walter Benjamin de la política española
La ilusión por la victoria del bloque progresista debe dar paso inmediatamente a un proceso de reflexión estratégica, de pensamiento multiescalar sobre las distintas dimensiones de la crisis y a la articulación de un plan, tecnológico pero no solo.
Sobre este blog
Atenea cyborg es un espacio de Tecnopolitica.net (red asociada al IN3 de la UOC) dedicado a explorar los conflictos y las contradicciones de nuestro tiempo, un tiempo marcado por la tecnopolítica y la tecnociencia. Es un lugar desde el que destejer la urdimbre de la ciencia, la tecnología y la sociedad contemporáneas para imaginar otros mundos y vidas posibles. Por un giro retrofuturista, aquí la vieja Atenea no es ya diosa sino cyborg y no es una sino muchas; ya no está sola, pero sigue en pie de guerra.
Ver todas las entradas
Violencia sexual
Clara Serra “Legislar el sexo con arreglo al deseo es la vía directa al punitivismo”
En ‘El sentido de consentir’, Clara Serra defiende que el concepto de consentimiento es precario y ambiguo. Pese a su utilidad jurídica para hacer leyes, argumenta, no puede convertirse en la receta mágica.
Opinión
Opinión La guerra cada día más cerca
Se condena y reprocha a Irán el ataque con drones y misiles a Israel, pero no se condena con la misma intensidad el ataque hace dos semanas al consulado de Irán en Damasco, donde murieron dos generales y diversos funcionarios y guardias iraníes.
Genocidio
Mkhaimar Abusada “Israel quiere quedarse en Gaza”
En esta conversación el doctor gazatí de Ciencias Políticas, Mkhaimar Abusada aborda la popularidad de Hamás en Gaza, las probabilidades de éxito israelí en la lucha por extinguir la insurgencia palestina o el futuro político del enclave.
Ecuador
Crisis diplomática El asalto a la Embajada de México, el naufragio diplomático de Ecuador
El país sudamericano queda cercado por la crítica internacional tras la detención por la fuerza del exvicepresidente Jorge Glas, asilado por el Gobierno mexicano en su sede en Quito.
Arte
Arte Guerra, crisis migratoria y Unión Europea: el arte crítico de Avelino Sala en la primera Bienal de Malta
El salón español de la Bienal de Arte de Malta está ocupado por cinco creaciones del artista gijonés Avelino Sala en las que representa las similitudes entre las guerras pasadas y presentes, los estallidos sociales o la hipocresía de la ONU.

Últimas

Sanidad privada
Privatización Defensa adjudica a Quirón el servicio de vigilancia de la salud de su plantilla
Tras el escándalo, el principal cliente del novio de Ayuso gana el concurso para realizar exámenes de salud a la plantilla del Ministerio de Defensa, que hasta 2020 se realizaban en el Hospital público Gómez Ulla.
Opinión
Opinión Cuando los jueces se alían con los especuladores: anatomía de un desahucio en Alacant
El papel que juegan los jueces en los procesos de desahucios, que en algunos casos acaba favoreciendo al negocio de la especulación, es un asunto controvertido que no ocupa muchas portadas.
Ocupación israelí
Palestina El Salto te ofrece una camiseta para apoyar económicamente a la UNRWA
No cesamos de buscar nuevas vías para visibilizar un mayoritario clamor social que pide un alto el fuego al que apenas se da cabida en el discurso mediático convencional. Todos los beneficios de esta campaña irán destinados a la UNRWA.
Agroecología
Opinión Contra el desalojo del proyecto agroecológico Otxantegi Herri Lurra en Berango
El jueves 18 de abril pretenden expulsar un proyecto que ha recuperado campos de cultivo para ejecutar un PGOU que acabaría con 40 hectáreas de espacios naturales y suelos fértiles
Más noticias
Sequía
Feria de Abril Arte flamenco para luchar contra la sequía
Una acción de Juventud por el Clima Sevilla en la Feria de Abril se suma con unas sevillanas de denuncia a la Acción Global por el Clima del viernes 19 de abril, convocada por Fridays for Future.
Opinión
Opinión Ni un voto al genocidio contra el pueblo palestino
Conocemos el compromiso del Estado español con el statu quo imperialista, por lo que nuestra ingente tarea es forzar al gobierno español a hacer algo que no quiere hacer.
Genocidio
Genocidio Clamor entre empleadas de las big tech ante la complicidad de Google con el genocidio israelí en Palestina
El gigante tecnológico de Silicon Valley ha firmado este mismo año un acuerdo de colaboración con Israel que, según sus propios trabajadores, puede aumentar la capacidad de videovigilancia y selección de objetivos militares a través de Google Photos.
Sidecar
Sidecar El fin de la inocencia
¿Por qué las burguesías blancas están visceralmente del lado de Israel? Una respuesta sería que las burguesías occidentales consideran que la situación de Israel está íntimamente ligada a la suya.
Opinión
Regularización Iniciativas populares vs pactos institucionales: caminos colectivos frente a los callejones sin salida
Mientras el pasado martes la perseverancia de los colectivos migrantes se anotaba una victoria en el Congreso, el miércoles el Parlamento Europeo ratificaba de nuevo, como único horizonte, la razón securitaria.

Recomendadas

República del Sudán
Un año de guerra Sudán, la guerra del futuro que aplastó la revolución
La confrontación entre el ejército y las milicias en Sudán implica una guerra contra la población que se levantó por la democracia y ahora lucha por su supervivencia.
Violencia machista
Irantzu Varela “Es mucho más gozoso un espacio sin hombres”
En ‘Lo que quede' (Continta me tienes, 2024) la periodista Irantzu Varela lanza dardos contra todos los hombres que han ejercido violencia contra ella. Contra todos los hombres que han ejercido o ejercen violencia contra las mujeres.
Sector del juego
Decreto Garzón La apuesta errónea del Supremo
Mientras la ludopatía es una de las mayores adicciones del país y el juego el tercer motivo de suicidio, el Tribunal Supremo ha tumbado varios puntos del Decreto de la publicidad de las apuestas.