We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Inteligencia artificial
¿La inteligencia artificial generativa reemplazará a los artistas? Apuntes para resistir al ‘hype’ tecnológico
En los últimos dos siglos, la automatización -el uso de tecnología para realizar ciertas tareas con poca o nula intervención humana- se ha extendido desde los procesos productivos de la fábrica hasta la toma de decisiones en el sector financiero. Esta tendencia parecía poner de manifiesto la reemplazabilidad de ciertas formas de trabajo que, por su carácter repetitivo o poco cualificado, podían ser fácilmente desempeñadas por robots y algoritmos, cuya eficiencia (ya sea en términos de precisión manufacturera o de velocidad de cálculo) estaba aún muy lejos de alcanzar la sensibilidad estética y la sofisticación cognitiva necesarias para la creación artística y literaria, que movilizaba facultades más elevadas -como la creatividad o la imaginación- en las que residiría nuestra excepcionalidad como especie en relación a la máquina. Pero actualmente los sistemas automatizados no solo están orientados a la logística y el procesamiento de datos, sino que se están utilizando cada vez más para crear imágenes, texto y sonido gracias a las nuevas herramientas de IA generativa.
Introducción: IA generativa y “crisis del arte”
La IA generativa es un término amplio que comprende cualquier proceso automatizado que utiliza algoritmos para generar contenido original a partir de datos existentes. Aunque existe desde hace más de medio siglo, se viralizó en 2020 con la aparición de GPT-3: un modelo de lenguaje extenso desarrollado por OpenAI que emplea aprendizaje profundo para producir textos que simulan la redacción humana, entre otras aplicaciones. Un año después la misma empresa lanzó DALL-E, un programa basado en el modelo anterior que es capaz de generar imágenes a partir de prompts o comandos. Estos programas han abierto el camino a otros como Midjourney y Stable Diffusion, orientados a la creación visual; Synthesis y AudioGen, que generan sonido o voz a partir de texto; o Firefly y RunwayML, empleados para la edición y postproducción de vídeo. Se trata de herramientas que ya están siendo ampliamente utilizadas por empresas en ámbitos como la publicidad (generando contenido para redes sociales), la mensajería (agilizando la redacción de e-mails) o el servicio al cliente (personalizando la atención a través de chatbots). Sin embargo, la posibilidad de crear imágenes o textos con IA parece afectar a otros sectores como la educación y el periodismo, al dificultar la verificación de autoría; así como el arte y la literatura, donde la propia noción de autor -ligada a las ideas de originalidad y autenticidad- ya no es una condición necesaria para crear obras capaces de conmover y asombrar.
Las herramientas de IA generativa funcionan con algoritmos capaces de crear imágenes y textos originales a partir de datos existentes, por lo que son vistas como una amenaza al trabajo artístico y creativo.
Esta novedad se suma a otras que han sacudido recientemente al sector artístico, como los NFTs o tokens no fungibles que, gracias a blockchain -la misma tecnología que hace posibles las criptomonedas-, parecían ofrecer una vía de mercantilización del arte digital al permitir la compra-venta de obras inmateriales como activos únicos y exclusivos mediante un certificado de propiedad. Sin embargo, tras el boom inicial, todo ese entusiasmo se desinfló bastante rápido. Algo similar podría estar ocurriendo con la IA generativa, por lo que conviene ponerla en contexto para dejar de percirbirla como una novedad sin precedentes.
Precedentes en la historia del arte
La aparente excepcionalidad de la crisis actual en torno a la IA generativa se debe, en parte, a una visión profundamente ahistórica: la historia del arte está repleta de disrupciones causadas por el desarrollo de nuevos medios técnicos. Quizás el ejemplo más notable sea el de la fotografía, cuya aparición en la década de 1830 despertó un aluvión de críticas que auguraban el fin de la pintura. Charles Baudelaire llegó a afirmar que “si se permite que la fotografía supla al arte en algunas de sus funciones (...) lo habrá suplantado o corrompido por completo”; y, en una línea muy similar, algunas revistas de la época anunciaron que “gracias a este instrumento desaparecerán de golpe y como por arte de magia los paisajistas, los retratistas, los pintores decoradores y todos los demás artistas”. Sin embargo, la oleada de pánico inicial dio paso a su legitimación como práctica artística al revelar nuevas posibilidades estéticas y expresivas. Dos siglos más tarde hay quien, como Joan Fontcuberta, proclama su muerte a causa de la sobresaturación de imágenes digitales, dando paso a una era “post-fotográfica”. Por lo tanto, el debate que actualmente suscita la IA no tiene nada de novedoso sino que ha acompañado a otros desarrollos técnicos que ahora forman parte de la tradición o el canon.
La historia del arte está repleta de disrupciones causadas por el desarrollo de nuevos medios técnicos como la fotografía; el debate que actualmente suscita la IA no tiene nada de novedoso.
Precedentes en la historia de la IA
El problema con la IA es que está envuelta en mitos que contribuyen a percibir cada nuevo modelo o aplicación como una novedad radical destinada a revolucionar cualquier ámbito, desde la economía hasta la salud, y a marcar un antes y un después en la historia de la humanidad. En este sentido, herramientas como ChatGPT o DALL-E se presentan como una proeza técnica sin precedentes cuyo avance exponencial, reflejado en la rápida sucesión de versiones mejoradas, parecen allanar el camino a la singularidad; de hecho, OpenAI afirma que su misión como empresa es “garantizar que la inteligencia artificial general -sistemas de IA más inteligentes que los humanos- beneficie a toda la humanidad”. De nuevo, la perspectiva histórica desinfla esta retórica grandilocuente. Lejos de iniciarse con GPT-3, la generación automática de texto se remonta al año 1966 con ELIZA, el primer bot conversacional de la historia desarrollado por un profesor del MIT para desempeñar la función de psicóloga. Por lo que respecta a la creación de imagen, los algoritmos y sistemas computacionales -desde lenguajes de programación como Processing hasta softwares de modelado 3D como Blender- llevan décadas siendo empleados en el arte generativo, definido por Margaret Boden y Ernest Edmonds como “aquel en el que la obra de arte es el resultado de un programa informático que se ejecuta solo, con una influencia humana mínima o nula“. Más recientemente, con los avances en aprendizaje automático y redes neuronales, se empezó a hablar de AI ART. Su origen puede fijarse en el año 2014 con el desarrollo de las Redes Generativas Antagónicas o GANs, un modelo de IA en el que dos redes neuronales compiten y se entrenan mutuamente: mientras una (generador) produce imágenes, la otra (discriminador) evalúa su grado de acierto o precisión, haciendo que estas sean cada vez mejores. Un año más tarde Google lanzó Deep Dream, una red neuronal que “reinterpretaba” cualquier imagen con un estilo onírico y psicodélico que, para muchos, reflejaba el inconsciente de la máquina; y, también en 2015, aparecieron los algoritmos de transferencia neuronal de estilo, capaces de combinar el contenido de una imagen con el estilo visual de otra. Esta breve enumeración demuestra que las actuales herramientas de IA generativa no han surgido de la nada, sino que les preceden otros modelos a los que han superado -ya sea redactando textos más complejos o generando imágenes más realistas- gracias a los avances en técnicas de aprendizaje automático y profundo, por lo que cabría hablar no de una ruptura o un avance exponencial sino de una mejora respecto a los modelos y técnicas anteriores.
ChatGPT o DALL-E deberían verse no como una ruptura o un avance exponencial -como propone la tesis singularista- sino como una mejora respecto a modelos y técnicas anteriores.
Autenticidad, intención artística y división del trabajo
Como ocurre con la IA, al arte también lo envuelven ciertos mitos que contribuyen a avivar estos debates estériles. El que más atención recibe es el de la “originalidad”, pese a que ha ido perdiendo vigencia a lo largo del último siglo, desde los albores de la reproductibilidad técnica hasta la era (post)digital, en la que cualquier defensa de ideas como “autenticidad” o “autoría” resulta poco menos que anacrónica. Las prácticas artísticas consisten hoy en la recombinación, copia y apropiación de materiales existentes a partir de los cuales puede surgir la novedad, tal y como hace la IA generativa. No obstante, estas prácticas responden aún a la voluntad e intención del artista, imprimiendo así su sello (o marca) personal. Esto explica las reticencias a considerar como obras de arte las imágenes generadas por un algoritmo a partir de la recombinación de patrones visuales, aun cuando podría considerarse que esa intención se manifiesta a través del prompt que sirve de comando al modelo generativo.
Las prácticas artísticas consisten hoy en la recombinación, copia y apropiación de materiales existentes a partir de los cuales puede surgir la novedad, tal y como hace la IA generativa.
Existe otro mito que rara vez se menciona en estos debates pese a que ha servido para justificar la creencia, equívoca y arrogante, de que el trabajo artístico es cualitativamente distinto a otros trabajos y por ello no está amenazado por la automatización. Se trata de la distinción entre trabajo intelectual y manual, o entre trabajo cualificado y no cualificado. Según esta distinción, determinados trabajos pueden considerarse “creativos” en la medida que requieren el desempeño de ciertas facultades como la inteligencia, la sensibilidad o la imaginación; mientras que otros trabajos consisten en actividades rutinarias y mecánicas que pueden ser ejecutadas por cualquiera — incluso un robot. Sin embargo, el trabajo intelectual es tan corpóreo como cualquier otro (en la medida que no es realizado por mentes desligadas del organismo, y a menudo conlleva secuelas físicas como estrés, ansiedad, fatiga visual o alteraciones posturales); y, del mismo modo, el trabajo manual también tiene una dimensión cognitiva vinculada al saber-hacer y a la búsqueda de soluciones creativas e imaginativas para un problema determinado. Por tanto, no hay motivos para pensar que un operario de almacén es más fácilmente reemplazable que un artista, más allá de prejuicios clasistas. De hecho, un estudio publicado el pasado mes de marzo por OpenAI apuntaba a que algunos de los trabajos más susceptibles de desaparecer como consecuencia de GPT -que, además de texto, también es capaz de generar y optimizar código fuente en el lenguaje de programación que se le indique- son traductores, matemáticos, diseñadores e ingenieros; mientras que albañiles, mecánicos o fontaneros parecen estar a salvo.
Debemos abandonar la idea de que el trabajo artístico es cualitativamente distinto a otros trabajos y por ello no está amenazado por la automatización.
Más allá del ‘hype’: desafíos laborales, medioambientales y jurídicos
Hay motivos para desconfiar de tales predicciones, no solo porque provengan de las mismas empresas a cargo de desarrollar estas tecnologías sino porque parten de una metodología deficiente que no contempla el peso de los marcos jurídicos, los convenios colectivos y las estrategias empresariales en la evolución del empleo. Además, como explicó recientemente Aaron Benanav (autor de La automatización y el futuro del trabajo), “a lo largo del siglo XX, pocos empleos se automatizaron por completo: la mayoría no desaparecieron con el progreso tecnológico, sino que su contenido cambió”; por lo tanto, “aunque es improbable que desaparezca la inmensa mayoría de los puestos de trabajo y que se creen muchos nuevos, la naturaleza del trabajo cambiará debido a la implantación de tecnologías como ChatGPT”. Esto nos sitúa frente a un escenario que debemos tomarnos en serio: el impacto de la IA generativa sobre el mercado laboral.
Aunque el desempleo masivo sea un escenario poco probable, la IA generativa puede tener un profundo impacto en el mercado laboral.
Otra cuestión alarmante que empieza a recibir cada vez más atención es su impacto ecológico. GPT-3 fue entrenado sobre una base de 570 GB de texto (frente a los 40 GB de GPT-2), y según un estudio esto supuso un consumo energético de 1.287 gigavatios hora (el equivalente a la electricidad anual que consumen 120 hogares en Estados Unidos). Otro estudio denuncia la emisión de 500 toneladas de dióxido de carbono a la atmósfera; y, por si fuera poco, un tercero afirma que se utilizaron 700.000 litros de agua para refrigerar los servidores que alojaban las bases de datos con las que fue entrenado el modelo. Estas cifras podrían haberse triplicado con el entrenamiento de GPT-4 debido al aumento del volumen de datos procesado para dotar al modelo de mayor capacidad y potencia, aunque las cifras exactas aún no han sido publicadas.
El entrenamiento de grandes modelos de lenguaje como GPT-3 y 4 implica altas emisiones de dióxido de carbono, así como un consumo excesivo de energía y otros recursos.
Por último, en lo que respecta al sector artístico, la mayor preocupación parece ser el plagio. Varios artistas han demandado a las empresas responsables de Midjourney y Stable Diffusion, que se entrenan con imágenes protegidas por derechos de autor y extraídas de bancos como Shutterstock, de las que el modelo extrae patrones visuales para generar sus resultados, reproduciendo el estilo (formas, colores, temáticas, etc.) de dichos artistas. Pese a lo expuesto anteriormente acerca de la “originalidad”, desatender estas quejas por razones filosóficas sería frívolo. No hay que olvidar que el contexto no es el del nacimiento de la cultura libre -que defendía el derecho de acceso a los bienes culturales a través de Internet- sino el de un capitalismo de plataformas que permite a empresas privadas lucrarse con los datos generados por las usuarias — incluidas las obras que millones de creadores comparten en la red, y cuyos derechos están siendo vulnerados. Ante esta situación, la Unión Europea ha impulsado un proyecto de ley para obligar a las empresas que hagan uso de IAs generativas a revelar si utilizan material protegido por derechos de autor, apostando por una mayor transparencia respecto a los contenidos con los que entrenan estos modelos. Pese a los esfuerzos regulatorios, cabe preguntarse si fortalecer las leyes de copyright es la solución adecuada o solo sirve para alentar la privatización de la cultura. En este sentido, deberíamos ver más allá de los aspectos jurídicos y condenar el modelo actual de IA por su dinámica extractivista basada en la privatización y captura de lo que, en realidad, son bienes públicos. En palabras de Sasha Costanza-Chock: “los sistemas de IA generativa se entrenan a partir de vastos conjuntos de datos que contienen siglos y siglos de trabajo creativo e intelectual humano; por tanto, deberían pertenecer al patrimonio común, a toda la humanidad, y no a un puñado de empresas con ánimo de lucro”.
Sasha Costanza-Chock: “Los sistemas de IA generativa se entrenan a partir de vastos conjuntos de datos que contienen siglos y siglos de trabajo creativo e intelectual humano; por tanto, deberían pertenecer al patrimonio común, y no a un puñado de empresas con ánimo de lucro.”
La disyuntiva entre reemplazo y cooperación
Mientras el desarrollo de estos sistemas siga en manos de empresas como Microsoft, Google o Meta, su objetivo fundamental será el lucro privado por más que puedan darse usos disidentes desde el arte, si bien es cierto que algunos ejemplos pueden resultar sumamente valiosos e inspiradores. Querría destacar la propuesta de Holly Herndon, una cantante y compositora experimental, que desarrolló una red neuronal a la que entrenó con su propia voz para crear su álbum PROTO (2019). Spawn, como llamó a su “bebé-IA”, puede imitar la voz de su creadora pero también sintetizar sus propios sonidos y contribuir significativamente al proceso de composición. En 2021 lanzó Holly+, una herramienta de IA generativa que permite transformar cualquier audio para que suene con la voz de la artista, ofreciendo un clon digital o deepfake como los que se han popularizado recientemente (y cuyo uso plantea serios dilemas éticos, políticos, sociales y jurídicos). Este año, ante el revuelo generado por la IA, ha creado junto a Mat Dryhurst la plataforma Spawning, dedicada a proteger a los artistas frente a problemáticas como el plagio; así buscan concienciar sobre la importancia del consentimiento en el uso de obras artísticas como datos de entrenamiento, y han desarrollado una web que permite a los artistas saber si su obra se encuentra en el dataset empleado por las principales herramientas de generación de imagen. Más allá de esto, lo verdaderamente interesante de su propuesta es su empeño en construir “una vía simbiótica de colaboración entre máquinas y humanos”, a partir de un modelo basado en la interdependencia. Hace algunos años se produjo un debate en redes que le permitió confrontar este modelo al de otras artistas que, como Grimes, proclamaban el fin del arte humano ante la superioridad de la IA. Esta fue su respuesta:
“La tecnología y la automatización deberían ayudarnos a ser más humanos y expresivos, no a reemplazarnos. (...) En última instancia, la IA es inútil sin nosotros; no en un sentido figurado, sino bastante literal. Está entrenada con nuestro trabajo y nuestras ideas. El traductor de Google es una herramienta impresionante desarrollada a partir del trabajo de traducción de innumerables humanos. La IA no es más que una agregación de nosotros. Es una metáfora y una responsabilidad poderosas. (...) En lugar de vernos como actores económicos individuales con derecho a hacer lo que queramos con lo que encontremos, intentamos vernos como parte de un ecosistema que intenta autopreservarse. En lugar de la música independiente, centrada en individuos especiales potenciados por herramientas tecnológicas y libres de las trabas de las instituciones o la sociedad en general, nos preguntamos cómo sería una música interdependiente.”
Artistas como Holly Herndon plantean “una vía simbiótica de colaboración entre máquinas y humanos”, a partir de propuestas basadas en la interdependencia.
Esta perspectiva permite ir más allá del entusiasmo y el miedo imperantes, o de la tecnofilia y la tecnofobia a menudo ligadas a un tecnodeterminismo paralizador. Frente a eso, es necesario tomar conciencia de que ninguno de los escenarios planteados por los medios de comunicación o los supuestos “expertos” tecnológicos es inevitable, sino que el futuro de la IA está por decidir — si bien la capacidad de la ciudadanía para intervenir y darle forma parece irrisoria frente a la de las corporaciones que están a cargo de su desarrollo. Aun así, mientras los gobiernos tratan de legislar al ritmo frenético que impone la ideología de la innovación, debemos celebrar iniciativas como la de Herndon y otras impulsadas desde la sociedad civil; pero no servirán de nada si seguimos alimentando relatos apocalípticos y mistificadores.