We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Opinión
Privacidad, ¿tenemos algo que esconder?
Un amigo me preguntaba estos días si todo el escándalo del espionaje con Pegasus serviría para que por fin cambiemos de hábitos. De hecho, su secreta esperanza (que él no confesará nunca) era que dejáramos de usar la tecnología, o al menos, que el escándalo sirviera para desengancharnos de los móviles, o, rebajando expectativas, para que empezáramos a usar apps seguras. Por desgracia, no creo que vaya a ser así. Cambiar hábitos siempre ha sido algo que nos ha costado mucho, tecnología mediante o no; si además hablamos de hábitos que configuran nuestra identidad, determinan nuestras vidas sociales e incluso han modificado nuestra forma de aproximarnos y entender el mundo, nuestra episteme, lo veo aún más difícil. En una conversación posterior, su hija constató mis sospechas “si ya todo el mundo sabe que le espían, pero les da igual”. Un argumento muy cercano al de “yo no tengo nada que esconder, no me importa que me espíen”.
Aquí no vamos a hablar de Pegasus (ya hay mucha gente con mucho más conocimiento hablando del tema), sino de por qué tenemos que pasar de concebir la privacidad como algo personal a entenderla como algo colectivo. “Hay que dejar de pensar la privacidad como una propiedad privada y empezar a pensarla como un derecho colectivo”, escuché decir una vez a Carissa Véliz y me pareció una síntesis acertadísima.
El contexto no ayuda a hacer ese salto de lo individual a lo colectivo. Estamos en un momento de retroceso a un individualismo exacerbado: la pandemia nos ha encerrado más en nosotros/as mismos/as, a ello se suman, creo, tres elementos que dificultan imaginar futuros deseables, colectivos y fomentan un individualismo inconsciente basado en el “sálvese quien pueda”. Estos tres elementos serían: la emergencia climática, la guerra de Ucrania (que contribuye a dificultar la posibilidad de pensar salidas al momento actual que sean esperanzadoras y genera sensación de paranoia y securitización de los espacios democráticos) y la incapacidad de la industria y el mundo cultural de generar productos no distópicos, una industria que apuesta por vender apocalipsis en lugar de asumir un papel responsable en el contexto actual y abogar por contribuir a pensar qué futuro queremos, necesitamos colectivamente; a imaginar qué tiempos son los que tenemos que inaugurar. La catástrofe alimenta esa búsqueda de la salida individual. Pero el contexto nos exige que pensemos en cómo pasamos de entender la privacidad como algo privado, propio, individual a hacerlo como algo colectivo. Y, a partir de ahí, actuar en consecuencia.
Imaginemos futuros colectivos, dignos, donde la tecnología está al servicio del bien común y no de beneficios comerciales o de ocultos fines políticos
Compartir aprendizajes
Me daba apuro escribir este artículo porque no soy una experta, ni mucho menos, pero estoy convencida de que hay que perderle el miedo a la parte técnica de la tecnología, a la inteligencia artificial y su expertise a la hora de apuntar retos políticos y colectivos que tenemos que afrontar con urgencia. En ese sentido, lo que sigue no es una explicación desde el rigor científico, sino desde el intento pedagógico de compartir aprendizajes.
En un mundo dominado, recubierto, atravesado por procedimientos de inteligencia artificial, los datos son “el petróleo del siglo XX”. A partir del uso de diferentes datos y variables (miles de datos, millones de datos, miles de millones de datos en algunos casos), la máquina es entrenada y puede sacar conclusiones predictivas que va mejorando a través del “machine learning”, haciendo así el procedimiento más complejo. Esa “mejora de la predicción” se produce, en parte, porque los procedimientos algorítmicos crean perfiles (“profiling” que cuando se habla de inteligencia artificial, parece que una está obligada a usar palabras en inglés todo el rato). Esos datos que componen los “dataset” con los que se entrenan las máquinas, no son fruto de la generación espontánea, vienen de nuestros teléfonos, comunicaciones, visitas a páginas webs, usos de apps, geolocalizaciones, bletooths activados, interacciones en redes sociales, intercambios de mensajes, mails… cuando visitamos una web o usamos una app para contar cuántos kilómetros hemos hecho esta mañana, generamos muchísimos más datos de los que podemos imaginar.
Esos datos no son importantes para poder saber dónde estuvo Pepito Pérez, Fátima Hernández o Alex Equis: lo son porque, junto con los datos de miles de personas de su misma edad, género, clase, o ubicación geográfica (o mil otras variantes más), son oro para poder generar perfiles que permitan predecir el comportamiento de ese tipo de persona. Predecirlo y ofrecer las ofertas comerciales que más se adecuan a ti, predecirlo y generar productos tecnológicos que nos homogenizan mientras nos hacen sentirnos únicos, predecirlos y usar métodos para condicionar elecciones democráticas, predecirlos y determinar si tú podrás cruzar la frontera o no, porque tu “profile” me dice que es probable que delincas, predecirlo y determinar que tú no pasas la fase de pre-selección de este trabajo porque lo dice un algoritmo.
No eres tan importante, yo tampoco, no se trata de saber de ti o de mí en concreto, se trata de que actúes, te prestes inconscientemente a ser usado/a como una mina de datos que luego entra en el mercadeo de venta de datos a terceros
No eres tan importante, yo tampoco, no se trata de saber de ti o de mí en concreto, se trata de que actúes, te prestes inconscientemente a ser usado/a como una mina de datos que luego entra en el mercadeo de venta de datos a terceros por parte de las compañías que los recopilan. Se trata de que alimentes las montañas de dataset que les permetirán generar productos, apps, para hacernos consumir más mientras creemos que elegimos libremente, manipular elecciones mientras permitimos que alteren nuestra imagen del mundo y nos cercenan nuestra capacidad de tener criterio propio (o incluso de equivocarnos), se trata de contribuir a la generación de procedimientos algorítmicos que no están regulados y que una y otra vez se ha demostrado que aplican sesgos racistas y machistas, mientras el stablishment defiende su neutralidad y les da más credibilidad que a una persona demandante de asilo perseguida en su país de origen.
Así que entiendo que es complicado en un mundo cada vez más individualista pensar la privacidad como un elemento colectivo, pero curiosamente, en un contexto que nos aboca al individualismo, lo que más importa son nuestros datos como parte de una masa de datos ingente donde nuestras personas se pierden y solo importan nuestras individualidades como parte de un “profile” de gente que comparte tus variables. Es decir, solo importamos como minas de datos en las que practicar extractivismo de la intimidad y los hábitos que tenemos.
Frente a eso, protejámonos, revisemos las cookies, intentemos incidir en las regulaciones sobre la AI, denunciemos los abusos, usemos tecnologías seguras y respetuosas con la privacidad, apostemos porque se financien tecnologías de proximidad, democráticas, no necesariamente comerciales, recuperemos un poco más las presencialidades; y, sobre todo, imaginemos futuros colectivos, dignos, donde la tecnología está al servicio del bien común y no de beneficios comerciales o de ocultos fines políticos. Y si no, al menos, entendamos que la privacidad es una responsabilidad colectiva, más allá de si tenemos o no algo que esconder. Pensando que tenemos algo muy valioso que preservar: la capacidad de decidir cómo queremos construir el mundo en el que vivir.
Relacionadas
Ciencia ficción
El Salto Radio Podcast | Ciencia ficción capitalista
Opinión
Opinión La distopía no es un género literario
Laboral
Laboral Microsoft plantea un ERE para deslocalizar de Barcelona a India parte del área financiera del Candy Crush
Bello artículo y buen camino el que sigue El Salto analizando problemas como la inteligencia artificial, propios de nuestro presente, nuestra época. Nos toca a nosotrxs buscar soluciones porque ya no vendrá Marx a explicarnos la teoría.
Yo tengo derecho a la privacidad y, al mismo tiempo, el resto de personas tienen derecho a saber de mí y de mis cosas. Estamos todxs conectadxs. Que haya algo propiamente mío en exclusiva es discutible.
Asimismo, todo lo privado es susceptible de ser mercantilizado. Mirad por ejemplo lo que pasa con el sexo y su industria: mientras yo privo al resto de mi pareja, habrá gente que lo tenga más difícil para conseguirlo a quien vender porno, sexo de pago, etc. Sin la privatización del sexo no existe industria sexual ni prostitución. Del mismo modo, no hay mercado de datos si no los escondemos, si no los tememos.
La distopía de Meta no será si 2 personas se juntan en la calle y el resto no mira para otro lado.
Salud.