Empresas digitales, racismo y control

Empresas digitales, racismo y control

La pandemia ha funcionado como excusa perfecta para avanzar a pasos agigantados en los mecanismos empresariales y gubernamentales de vigilancia y control de la población en muchas partes del mundo.

Una situación que es un problema en sí mismo, pero además conlleva aspectos ocultos tanto o más inquietantes, como el manejo de nuestros datos para inducirnos a conductas de consumo o de elecciones políticas, entre otros.

Bajo el supuesto de que es necesario para el control de la pandemia saber quiénes y dónde están los contagiados, (lo cual también sería un beneficio individual) se han producido más de 40 aplicaciones electrónicas de monitoreo.

Son aplicaciones comerciales, a veces patrocinadas por gobiernos que han impuesto su uso obligatorio en la población, como en China o Australia. En la mayoría de los casos, los gobiernos “aconsejan” a la población usar alguna aplicación, a veces desarrolladas en colaboración con instituciones gubernamentales.

En un artículo anterior (Pandemia de control digital) mencioné que Google y Apple, clásicos competidores, se pusieron de acuerdo para desarrollar y ofrecer una aplicación de este tipo.

Más allá del Covid-19

Aunque estas aplicaciones se promocionan ahora en el contexto de la pandemia por Covid-19, se pueden usar para muchos otros fines.

Por ejemplo, a partir de las protestas por el asesinato racista de George Floyd por la policía de Estados Unidos, el Comisionado de Seguridad Pública de Minnesota, John Harrington, anunció que usarían los datos recogidos por las aplicaciones de monitoreo, cámaras, etc., para detectar quienes son las personas que protestan, con quién se juntan, qué hacen, dónde van, si son “terroristas” o “crimen organizado”, etc. (https://tinyurl.com/ybll9s24)

Reveló así que las autoridades pueden recolectar la información de sistemas de monitoreo electrónicos -sean privados o públicos- y que éstos se acopian en bases de datos que entregan perfiles de cada persona, al cruzar e interpretar la información.

Por la cantidad de datos que se requiere manejar, esos perfiles son construidos por programas de inteligencia artificial, cuyos algoritmos son programados por personas concretas. Para ello se basan en datos de la “realidad” que ya existen, por lo que reproducen valores racistas, patriarcales, sexistas y discriminatorios de los pobres, migrantes, etc.

Parcialidades de los sistemas de inteligencia artificial

Con el asesinato de Floyd en Estados Unidos, se difundió un estudio que muestra que una persona negra tiene tres veces más chances de que lo maten la policía que una blanca. Traducido a “datos”, el algoritmo no registra la violencia policial, sino que la población afroamericana (o latina, joven, migrante, etc.) es más peligrosa, más tendiente a ser criminal, que se junta con otras similares, etc.

Hay varios estudios sobre estas parcialidades de los sistemas de inteligencia artificial. Siendo un tema injusto y de preocupación, es sólo un aspecto del problema, y es importante ver el conjunto de riesgos que conlleva la omnipresencia de las plataformas digitales sobre nuestras vidas.

Las protestas crecientes sobre estas parcialidades de los algoritmos probablemente obligarán a las empresas a revisarlos – aunque no es sencillo que lo hagan y cometerán nuevas.

Mucho más de lo que creemos que compartimos

Más allá de la vigilancia para uso de las autoridades, el fin clave de las plataformas digitales, (porque es lo que le da más dinero y los ha vuelto billonarios) es la recolección permanente de insumos sobre cada uno de nosotros, nuestras familias y amigos, nuestras elecciones de todo tipo (de consumo, políticas, estéticas, sexuales y mucho más).

No solamente lo que escribimos en redes sociales y decimos en público. Lo que recogen esas empresas, es mucho más de lo que creemos que compartimos.

Además de lo que expresamos en palabras, existe una enorme industria de recolección de datos y nuevos análisis biométricos, que analizan micrométricamente las diferentes expresiones de fotos, videos o cámaras, y sistemas que interpretan esas micro-expresiones, conectándolas con lugares, situaciones, emociones, reacciones a mensajes, etc.

A su vez, Facebook (y otras redes), complementan estos análisis con perfiles psicológicos y geo-referenciados, que les permiten ofrecer al mejor postor comercial o político los datos de millones de personas, por grupos de edad, sexo, barrios, poder adquisitivo, preferencias, etc.

Nuevo capitalismo de la vigilancia

Con la pandemia, Naomi Klein explica que los cabilderos de las mayores plataformas digitales han estado muy activos en reclamar a los gobiernos su esencialidad y que éstos deben rápidamente construir infraestructura para permitir que expandan sus redes a todo rincón de la tierra.

Quitados de la pena, mencionan que la pandemia les permitió realizar un verdadero “experimento en educación” y atención de la salud virtual, y que pueden remplazar a millones de maestros y personal de salud.

Han recolectado un volumen indescriptible de nuevos de datos de estudiantes de todos los niveles y de pacientes y sistemas de salud, que agregan a sus bases de datos.

En muchos casos, como también sucede en México, los propios gobiernos entregan a estas empresas la gestión de los datos sobre educación y salud. Como dice Klein, se trata de una verdadera doctrina de shock en el nuevo capitalismo de la vigilancia.

 

Silvia Ribeiro – Alainet / OVRE

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *