Estados Unidos y Europa emplean sistemas de Inteligencia Artificial (IA) para controlar la migración irregular en sus fronteras, invirtiendo grandes cantidades de dinero en este ámbito. Algunos activistas consideran que estos sistemas discriminan a la población racializada. En España, la tecnología de IA no se dirige hacia personas blancas ni a los lugares por los que pasan, como el aeropuerto de Barajas en Madrid u otros lugares similares, sino a las dos ciudades fronterizas con Marruecos con el objetivo de vigilar y controlar la inmigración.
Paula Guerra Cáceres es chilena y vive en España desde 2006. Es comunicadora social, activista antirracista y columnista en diversos medios de comunicación, en los que analiza el racismo estructural y su impacto en la vida de las personas racializadas. Además, es parte del equipo de AlgoRace. (Des)racializando la IA, un proyecto multidisciplinar que surgió el año pasado con el objetivo de poner sobre la mesa el debate de la relación entre IA y racismo.
En esta entrevista condedia a Baynana, la activista Cáceresnos habla sobre qué es la IA, cuál es su relación con el control migratorio, y por qué se dice que produce discriminación y ejerce racismo sobre personas de origen no blanco.
-¿Qué es la Inteligencia Artificial (IA) y por qué supone un riesgo para las personas migrantes?
En palabras muy sencillas, la Inteligencia Artificial es un conjunto de algoritmos que se instalan en un ordenador con el objetivo de simular los procesos cognitivos de la mente humana, como por ejemplo, tomar decisiones, hacer elecciones, cálculos, etc. Supone un riesgo para las personas migrantes y racializadas por dos motivos. Primero, porque, a día de hoy, la IA se está utilizando tanto en empresas privadas como en administraciones públicas para regular derechos, como por ejemplo, decidir quiénes reciben una ayuda social, acceden a una beca o pueden optar a un préstamo hipotecario. Y segundo, porque se está utilizando como una herramienta de control migratorio. Un ejemplo de esto último es lo que va a ocurrir este año con la implementación de la mal llamada “frontera inteligente” en Ceuta y Melilla.
– ¿Qué se sabe sobre la instalación de esta “frontera inteligente”?
Que este año se va a implementar en la frontera con Ceuta y Melilla una tecnología basada en IA, supuestamente con dos fines: controlar el terrorismo y agilizar las respuestas del gobierno en las solicitudes de asilo. En AlgoRace creemos que estas son excusas que se utilizan para convertir la Frontera Sur en un laboratorio de prácticas securitarias que va a tener el uso de IA como principal apoyo. La implementación de esta tecnología en la Frontera Sur es una vulneración más de derechos fundamentales, porque se está incumpliendo el derecho básico a la privacidad de los propios datos personales y biométricos. Esta tecnología no se va a implementar en otras fronteras, como por ejemplo el Aeropuerto de Barajas, ni se va a aplicar a ciudadanos europeos. Todo esto se va a producir en la frontera por donde cruzan personas migrantes que están en una gran situación de vulnerabilidad y que además no cuentan con los recursos necesarios para protegerse legalmente ante esta vulneración de derechos.
– ¿Puede dar ejemplos de quiénes son las víctimas de la IA y cómo estos sistemas afectan a sus vidas?
Las personas que actualmente son víctimas del uso y aplicación de IA en cuestiones que tienen que ver con acceso a derechos y servicios son las mismas que pertenecen a colectivos históricamente oprimidos, es decir, personas racializadas, mujeres, de clase obrera, etc. La IA beneficia a las personas que siempre se han beneficiado del sistema político y social y está perjudicando a las que siempre se han visto perjudicadas por este mismo sistema político y social. En el caso de las mujeres, hay sistemas de IA que se utilizan para detectar qué mujer es potencial víctima de una violencia machista y está comprobado que estos sistemas fallan, también somos víctimas las mujeres porque hay sistemas de IA que hacen selección de personal para ocupar puestos de dirección en empresas, y como los algoritmos son programados para funcionar con información del pasado e históricamente los puestos de dirección han sido ocupado por hombres, la selección que hace el algoritmo deja fuera a las candidatas mujeres. A las personas racializadas nos perjudica en los mismos ejemplos anteriores porque te pueden dejar fuera de una selección laboral solo por tu apellido o porque haber estudiado en una universidad no europea, y también porque se está utilizando la IA en el control migratorio.
– ¿Quién está trabajando para combatir esta discriminación y cómo?
Distintas entidades y organizaciones de la sociedad civil nos estamos organizando, primero, para visibilizar la forma en que la IA se está utilizando para reproducir desigualdades, y segundo, para exigir la creación de un marco legal que nos permita obtener un mapeo detallado de toda la tecnología de IA que se está aplicando tanto en el sector privado como público, fiscalizar el diseño e implementación de IA, y exigir nuestra participación como auditores externos de esa IA en todos aquellos casos en que se utiliza como reguladora de derechos. En este sentido, AlgoRace es un proyecto pionero en el Estado español porque está visibilizando la relación que existe entre IA y discriminacion racial. Hay otros colectivos, también dentro del estado español, que llevan tiempo trabajando este tema, pero están más enfocados en el ámbito de los derechos digitales y de justicia global.
-¿Cuáles son las empresas que más se lucran con este asunto en España?
Uno de los problemas graves que existe en torno al uso e implementación de IA en general, y en el Estado español en particular, es que hay mucha opacidad al respecto. Resulta muy difícil obtener información sobre qué empresas y administraciones públicas están implementando esta tecnología porque, a día de hoy, no existe ningún marco legal que regule su uso. Hay un libre albedrío absoluto en esta materia. Si un ayuntamiento decide comenzar a utilizar tecnología de IA para decidir a qué familias otorga una ayuda social, lo puede hacer sin que exista ninguna fiscalización al respecto, sin que nadie sepa quién desarrolló el algoritmo, con qué datos “lo entrenó” ni qué tipo de resultados está produciendo. Pese a esta falta de transparencia, alguna información tenemos al respecto. Gracias a algunas informaciones publicadas en prensa, sabemos que de las empresas que forman parte de la industria de control migratorio en España, diez multinacionales se embolsan el 65 por ciento del dinero que gasta el Estado español en control migratorio. Entre estas empresas se encuentran Indra, Air Europa y Eulen S.A. Esperamos contar más adelante con esta misma información en lo relativo al uso e implementación de IA en materia migratoria.
-¿Sabemos cuánto gasta España en estos sistemas de inteligencia artificial para control fronterizo?
En 2019 se aprobó en España un presupuesto de 4,1 millones de euros para implementar tecnología de IA en frontera. Ese presupuesto se amplió luego a 20 millones de euros. Este modelo de control fronterizo mediante uso de IA fue diseñado por la UE y aprobado por el Parlamento Europeo en 2017. En 2019 la UE anunció que invertiría 142 millones de euros con el fin de desarrollar la infraestructura digital que este nuevo modelo fronterizo requiere, presupuesto que fue ampliado después a 212 millones de euros. A esto se suma el contrato que en 2020 firmaron los Estados miembros por 302, cinco millones de euros para el diseño e implementación del sistema biométrico que se va implementar en las llamadas fronteras inteligentes, que incluye el reconocimiento facial y la recogida de huellas dactilares. Como se puede ver, el negocio que hay detrás del control fronterizo, y del uso de la IA en el mismo, mueve muchísimo dinero, aporta grandes beneficios económicos a las empresas que están detrás lucrándose mediante la vulneración de derechos de determinadas personas. Con el uso de IA en frontera veremos cómo el racismo estructural de siempre se va a ver amplificado a través de esta tecnificación.
– ¿Cuáles son las propuestas y denuncias de AlgoRace sobre este tema?
Primero, exigimos transparencia en cuanto al uso e implementación de IA en el estado español, tanto en el sector público como en el privado y en todos aquellos ámbitos donde se está utilizando para regular derechos. Segundo, pedimos que se informe de cuáles son las empresas que están obteniendo contratos para desarrollar estos algoritmos. Tercero, que exista una auditabilidad por parte de movimientos sociales, es decir, que tengamos la posibilidad no solo de saber qué algoritmos se están utilizando y en qué empresas, sino de auditar esta tecnología y exigir su modificación si vemos que algunos algoritmos están reproduciendo desigualdades.
-¿Están tomando contacto con algún partido o representante político para hablar sobre este tema?
La incidencia política es fundamental en esta materia y por ello estamos manteniendo reuniones con diversos grupos parlamentarios. El debate de la relación entre IA y desigualdad social pasa necesariamente por un marco legal que regule su uso e implementación y, por tanto, los partidos políticos tienen un rol que jugar. Tienen que tomar una postura al respecto.
-¿Cómo pueden los ciudadanos de a pie informarse y combatir este tipo de tecnología?
Investigando y organizándose. Primero tenemos que informarnos sobre cómo el uso de la AI está afectando nuestro día a día y nuestros derechos, y luego, con esta información, debemos movilizarnos para exigir a las entidades correspondientes que tomen las medidas necesarias para que esto deje de ocurrir y para que la IA no se convierta en un factor que condicione negativamente nuestras posibilidades de futuro. Esto es, en parte, lo que estamos haciendo desde Algorace. Una labor informativa hacia las comunidades y pueblos racializados, para luego, a partir de esta información, movilizarnos en búsqueda de que se respeten nuestros derechos.
En español
Nos gustaría pedirte una cosa… personas como tú hacen que Baynana, que forma parte de la Fundación porCausa, se acerque cada día a su objetivo de convertirse en el medio referencia sobre migración en España. Creemos en el periodismo hecho por migrantes para migrantes y de servicio público, por eso ofrecemos nuestro contenido siempre en abierto, sin importar donde vivan nuestros lectores o cuánto dinero tengan. Baynana se compromete a dar voz a los que son silenciados y llenar vacíos de información que las instituciones y las ONG no cubren. En un mundo donde la migración se utiliza como un arma arrojadiza para ganar votos, creemos que son los propios migrantes los que tienen que contar su historia, sin paternalismos ni xenofobia.
Tu contribución garantiza nuestra independencia editorial libre de la influencia de empresas y bandos políticos. En definitiva, periodismo de calidad capaz de dar la cara frente a los poderosos y tender puentes entre refugiados, migrantes y el resto de la población. Todo aporte, por pequeño que sea, marca la diferencia. Apoya a Baynana desde tan solo 1 euro, sólo te llevará un minuto. Muchas gracias.
Apóyanosنود أن نسألك شيئًا واحدًا ... أشخاص مثلك يجعلون Baynana ، التي هي جزء من Fundación porCausa ، تقترب كل يوم من هدفها المتمثل في أن تصبح وسيلة الإعلام الرائدة في مجال الهجرة في إسبانيا. نحن نؤمن بالصحافة التي يصنعها المهاجرون من أجل المهاجرين والخدمة العامة ، ولهذا السبب نقدم دائمًا المحتوى الخاص بنا بشكل علني ، بغض النظر عن المكان الذي يعيش فيه القراء أو مقدار الأموال التي لديهم. تلتزم Baynana بإعطاء صوت لأولئك الذين تم إسكاتهم وسد فجوات المعلومات التي لا تغطيها المؤسسات والمنظمات غير الحكومية. في عالم تُستخدم فيه الهجرة كسلاح رمي لكسب الأصوات ، نعتقد أن المهاجرين أنفسهم هم من يتعين عليهم سرد قصتهم ، دون الأبوة أو كراهية الأجانب.
تضمن مساهمتك استقلالنا التحريري الخالي من تأثير الشركات والفصائل السياسية. باختصار ، الصحافة الجيدة قادرة على مواجهة الأقوياء وبناء الجسور بين اللاجئين والمهاجرين وبقية السكان. كل مساهمة ، مهما كانت صغيرة ، تحدث فرقًا. ادعم Baynana من 1 يورو فقط ، ولن يستغرق الأمر سوى دقيقة واحدة. شكرا جزيلا
ادعمنا