Entrevista con Andrés Colmenares, director del Máster en Diseño para una IA Responsable

03 May 2024
Elisava
Andrés Colmenares durante una conferencia en el Disseny Hub Barcelona. Fuente: Elisava.

Desde hace más de una década, Andrés Colmenares trabaja para ayudar a ciudadanos y organizaciones a tomar mejores decisiones mediante herramientas de anticipación, participación y aprendizaje colaborativo. Al mismo tiempo, investiga, establece contactos y comisaría conferencias sobre los impactos socioecológicos de las tecnologías e infraestructuras digitales. Como estratega, curador y consultor creativo, ha dirigido proyectos para numerosas organizaciones internacionales, es codirector de The Billion Seconds Institute y dirige el Máster en Diseño para una Inteligencia Artificial Responsable de Elisava.

El Parlamento Europeo ha aprobado recientemente la Ley de Inteligencia Artificial, que a priori y a grandes rasgos garantiza la seguridad y el respeto de los derechos fundamentales a la vez que impulsa la innovación. Entre otras cosas, la ley limita el uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad y refuerza los derechos de los consumidores, entre muchas otras cuestiones. En principio parecen buenas noticias, sobre todo para los más críticos con la creciente presencia de la IA en nuestro día a día… ¿qué opinas al respecto?

El hecho que Europa haya decidido hacer el extenso y burocrático proceso para crear y aprobar una nueva ley para hacer frente a los impactos de la adopción masiva de sistemas de inteligencia artificial, no deja de ser una buena noticia para los ciudadanos de la UE, los gobiernos y en gran medida para todo tipo de empresas y organizaciones usuarias de estos sistemas, ya que el uso de este tipo de sistemas y sus implicaciones son bastantes transversales. Pero también es cierto que, como varias organizaciones defensoras de los Derechos Humanos han denunciado, la ley se ha quedado corta en esta materia que es fundamental para la sociedad. Por ejemplo, la ley permite usos de alto riesgo como los sistemas de vigilancia masiva predictiva y biométrica que afectan a poblaciones vulnerables, como refugiados y personas indocumentadas además de crear vacíos legales y excepciones bajo el paraguas de la seguridad nacional. También la ley deja por fuera los graves y crecientes impactos medioambientales de estos sistemas.

«Hay muchos intereses en juego y las grandes corporaciones han hecho un lobby intenso para asegurar que los aspectos regulatorios de la ley no les impidan seguir sacando fruto de los vacíos legales»

En mi opinión, abarcar todos los usos actuales y potenciales de los sistemas de inteligencia artificial en una sola ley, no solo es una tarea imposible sino también problemática ya que la Inteligencia Artificial no existe. Es un término que se usa indistintamente para referirse a temas conectados pero diferentes como tecnologías, sectores, aplicaciones, ideologías, campos de investigación y técnicas de computación. Existe en el imaginario colectivo como una amenaza existencial para la propia humanidad y al mismo tiempo como una tecnología avanzada y poderosamente disruptiva. En la práctica abarca desde los sistemas usados para el control y vigilancia de fronteras hasta los usados para generar imágenes, recomendar videos o decidir ayudas públicas. Hay muchos intereses en juego y las grandes corporaciones han hecho un lobby intenso para asegurar que los aspectos regulatorios de la ley no les impidan seguir sacando fruto de los vacíos legales de las que muchas se benefician a costa de vulnerar derechos o explotar a los más vulnerables.

La nueva normativa también prohíbe la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial, así como la identificación de emociones en el lugar de trabajo y en las escuelas, o la actuación policial predictiva. Son temas que parecen casi de ciencia ficción, y que hemos visto muchas veces en el cine, pero que son ya una realidad, ¿no es así?

Vale la pena aclarar que la nueva ley no prohíbe estos usos peligrosos, solo impone restricciones y también abre la puerta a usos excepcionales. Es cierto que muchos ciudadanos reconocemos estos usos de tecnologías avanzadas en películas de ciencia ficción, casi siempre ilustrando obras de escritores de ciencia ficción que en muchos casos intentan reflejar problemas sociales, de abusos de poder, anticipar riesgos o en algunos casos promover ideologías. Vivimos en una sociedad dominada por la idea que el progreso se determina por la innovación tecnológica y se tiende a celebrar que se materialicen en productos, servicios o experiencias.

Me llama mucho la atención como los medios de comunicación cubren cada lanzamiento de corporaciones como Tesla, Apple o Amazon como si fueran temas de interés público. Pero la relación entre las películas de ciencia ficción, que no son los mismo que los libros ya que al adaptar una obra literaria para la pantalla inevitablemente se reduce la interpretación plural y crítica de las ideas que refleja, y el imaginario que existe alrededor de la inteligencia artificial no es para nada un aspecto anecdótico o secundario. Hacen parte de un mismo sistema que se retroalimenta. La ciencia ficción inspira al sector tecnológico y este a su vez, inspira la ciencia ficción. Resulta fundamental entender este diálogo para desmitificar la Inteligencia Artificial y comprender las relaciones de poder y las ideologías que convergen en sus implementaciones más peligrosas en materia de derechos humanos e impactos sociales y medioambientales.

«Llama mucho la atención como los medios de comunicación cubren cada lanzamiento de corporaciones como Tesla, Apple o Amazon como si fueran temas de interés público»

Otra novedad interesante que plantea la nueva ley es que las imágenes, contenidos de audio o de vídeo artificiales o manipulados deberán etiquetarse claramente como tales. Por otra parte, se deberá respetar la legislación de la UE sobre derechos de autor, algo que hasta ahora había quedado en un terreno difuso que generaba ciertos conflictos para los creadores, incluidos los diseñadores…

Durante el último año uno de los usos más populares de sistemas de inteligencia artificial han sido las herramientas generativas de texto, imagen o sonido basadas en los llamados modelos de lenguaje grandes, que funcionan a partir de un volumen enorme de datos. Las técnicas de captura, procesamiento y posterior uso de esos datos, que pueden ser imágenes, textos y otros tipo de creaciones protegidas por derecho de autor, son en muchos casos ilegales o en el mejor de los casos paralegales incluso antes de la nueva ley. Pero esto no ha impedido que las corporaciones detrás de estas populares herramientas (ChatGPT, DALL-E, entre otras) lo hagan y sigan haciendo.

La nueva ley refuerza y especifica requerimientos asociados tanto a derechos de autor como a la recolección y uso de datos, como a la relativa transparencia y documentación técnica que deben aplicar, pero la filosofía de estas corporaciones, mayoritariamente establecidas fuera de la UE, no es precisamente la de cumplir la ley. La escala de su capital les permite pagar bufetes de abogados, equipos de lobistas, relaciones públicas y en el peor de los casos multas, mientras que los afectados, que incluyen creadores independientes, no tienen medios insuficientes para hacer valer sus derechos o demandar a los infractores.

Elisava
AI for Biodiversity by Nidia Dias & Google DeepMind. Fuente: betterimagesofai.org.

En Elisava diriges el Máster en Diseño para una IA Responsable, que promueve varios aspectos vinculados a la IA como la investigación creativa, el pensamiento crítico y la toma de decisiones estratégicas. El máster apuesta también por investigar cómo la IA afecta a nuestra vida diaria, y eso implica aspectos tecnológicos, éticos o de sostenibilidad, entre otros. ¿De qué manera abordáis en el máster un tema tan interesante y a la vez tan complejo?

Lo abordamos partiendo de la idea de entender y explorar la inteligencia artificial como sistemas eco-socio-tecnológicos, enmarcadas en el contexto actual determinado por la emergencia climática, para desarrollar las habilidades y pensamiento crítico necesario para desmitificar la idea de “la Inteligencia Artificial” como un primer paso para tomar decisiones responsables. Es decir, literalmente visitamos y estudiamos los lugares donde estos sistemas interactúan con el territorio y el medio ambiente, los centros de datos. Con la ayuda de periodistas de investigación, investigadores académicos y artísticos, analizamos y construimos mapas de las infraestructuras que soportan estos sistemas y sus relaciones con sistemas económicos, sociales y legales. Analizamos con expertos las implicaciones e impactos tangibles e intangibles de estos sistemas y estudiamos su vínculo con sistemas de poder establecidos hace siglos con perspectivas decoloniales, anti-racistas, ancestrales, plurales e inclusivas necesarias para poder imaginar narrativas alternativas, metodologías y otras herramientas de diseño crítico que ayuden a empresas y gobiernos a innovar desde la responsabilidad. Por esta razón contamos con profesores y colaboradores de múltiples disciplinas, culturas e identidades. Todo esto lo hilamos con una filosofía de aprendizaje colectivo, solidario y horizontal donde no existe la jerarquía entre estudiantes y profesores. Invitamos a los participantes a posicionarse como investigadores creativos desde el primer día del programa y nos centramos en el desarrollo de habilidades más que en el consumo de información.

Me interesa especialmente la interconexión entre IA y crisis climática. ¿Qué nexos de unión existen entre ambos campos y cómo la IA puede beneficiar el medio ambiente y la supervivencia del planeta, si es eso posible?

La relación más crítica, es decir la que más implicaciones tiene, entre la emergencia climática y el ecosistema que se ha formado alrededor de la inteligencia artificial, según Mel Hogan y otras impulsoras del emergente campo de Critical Data Center Studies, se puede resumir en cinco elementos: energía, tierra, agua, trabajo y calor. Si visualizamos a los sistemas de IA como un árbol, sus raíces serían los miles de centros de datos donde se almacenan, pero sobre todo se computan, los datos que hacen que muchas aplicaciones teóricas de la inteligencia artificial sean hoy una realidad.

«La explosiva demanda por sistemas de IA está disparando la necesidad de construir más y más grandes centros de datos, incrementando el consumo y explotación de recursos, así como de emisiones»

Estos centros de datos consumen mucha electricidad, por lo que la energía necesaria para mantenerlos funcionando, incrementa significativamente las emisiones de carbón de la industria. Luego está la creciente demanda por minerales raros necesarios para fabricar los chips y otros componentes de hardware utilizados para procesar datos. Estas infraestructuras también necesitan utilizar volúmenes importantes de agua para enfriar los servidores ya que no podemos olvidar que la computación es un proceso físico que genera mucho calor. Y en este conjunto de elementos no podemos olvidar a los trabajadores precarios en toda esta cadena: en minas, en el etiquetado de datos, en la moderación de contenidos, en los mismos servidores o incluso repartidores controlados por algoritmos que solo buscan optimizar los beneficios de las corporaciones.

La explosiva demanda por sistemas de IA está disparando la necesidad de construir más y más grandes centros de datos, incrementando el consumo y explotación de recursos, así como de emisiones. Se habla de no viajar en avión, no usar coches o reducir el consumo de carne para hacer frente a la emergencia, pero poco se habla del impacto que la economía digital está teniendo. También hay varias iniciativas que buscan usar esta capacidad computacional para hacer frente a los múltiples retos que nos presenta la crisis climática, pero al final no dejan de ser solo herramientas de análisis que tienden a hacer frente a la crisis climática, en mi opinión erróneamente, como un problema que la tecnología puede solucionar.

Elisava
Andrés Colmenares ofrece una charla sobre IAM. Fuente: friendsoffriends.com.

Recientemente, desde el Máster en Diseño para una IA Responsable de Elisava habéis organizado el ciclo Critical Futures Talks, una serie de eventos híbridos, entrevistas y podcasts que ha dado como resultado un conglomerado de opiniones y puntos de vista sobre el tema por parte de profesores y colaboradores del máster e invitados internacionales, que han reflexionado sobre la IA responsable, los medios y el diseño en relación al actual estado de emergencia climática. ¿Cuáles dirías que han sido las principales conclusiones del ciclo?

Nuestra principal intención con este ciclo es abrir las conversaciones sobre los temas que estamos estudiando para que vayan más allá del aula de clase y la escuela por su relevancia social y cultural y que más personas reflexionen sobre la relación que como sociedad tenemos con las tecnologías y las formas de pensar y existir que emergen de esta relación. Cientos de personas en decenas de países y de distintos sectores se registraron para participar en persona o a través de live stream, lo que demuestra el interés en estos temas.

En varias sesiones hablamos de temas que normalmente no se relacionan con la IA o la emergencia climática, como nuestra relación con el tiempo, con la idea de futuros, la importancia de conocimientos ancestrales o la crisis de imaginación sociológica que afecta a la humanidad. A través de las presentaciones y discusiones vemos que hay una creciente reflexión crítica desde las empresas y entre profesionales de diseño en relación a la manera en que las tecnologías digitales se crean y se usan. Vemos cada vez más profesionales que anteponen sus valores a los salarios que ofrecen grandes corporaciones basadas en el extractivismo. En conclusión, hay señales que invitan a creer en que las cosas pueden cambiar si suficientes personas y organizaciones nos ponemos en ello.

Aún poniéndonos en la peor tesitura en cuanto a la transformación del mundo laboral debida a la irrupción de la IA, algunos expertos afirman que hay 3 campos que sobrevivirán a su impacto: la propia inteligencia artificial, la energía y las biociencias. ¿Estás de acuerdo?

No comparto la narrativa que se ha generalizado alrededor de la dualidad entre humanos vs. máquinas reflejada en intentar presentar a “la Inteligencia Artificial” como algo inevitable o deseable en la que solo unos pocos podrán sobrevivir o como una especie de fenómeno natural que tiene que pasar. Es justamente está dimensión ideológica la que más me preocupa porque es invisible y se está sembrando en lo profundo del inconsciente colectivo.

Estamos viendo una adopción masiva de todo tipo de soluciones basadas en inteligencia artificial que maximizan la automatización de todo tipo de procesos, que en varios casos dejan atrás a algunos tipos de profesionales o trabajadores en muchos casos los más precarios, disparando la desigualdad. Como sociedad debemos preguntarnos si es más importante o deseable vivir en un mundo más automatizado y eficiente pero más desigual e injusto o si preferimos un mundo más justo, reducir todo tipo de desigualdades, defender los derechos humanos incluso si esto en algunos casos implique tener que ir más despacio.

«Como sociedad nos tenemos que preguntar si es deseable vivir en un mundo más automatizado y eficiente, pero más desigual, o si preferimos un mundo más justo»

A pesar de algunas alarmas, fundamentadas o no, ¿crees que hay motivos para ser optimistas en el cambiante contexto actual?

Absolutamente, la esperanza nos define como seres humanos y en ningún caso debemos renunciar a la humanidad. Pero no vale con ser solo optimistas. Debemos ser optimistas críticos, es decir debemos aprender a conciliar la idea de que mañana puede ser mejor que ayer sin dejar de cuestionar la idea de quiénes definen y como se define que es mejor y para quién es mejor ese mañana, siendo conscientes de nuestros privilegios y situaciones de poder para luchar en nombre de los que no pueden darse el lujo de parar a hacer esta reflexión. En palabras del pedagogo Paulo Freire, lo que nos define como humanos en nuestra capacidad para transformar nuestra realidad y una gran parte de esta capacidad es poder imaginar que mañana puede ser mejor. Por eso existimos, para ser humanos.

Elisava
Plant by Alan Warburton. Fuente: betterimagesofai.org