El sistema de anuncios de Facebook parece discriminar por raza y género

El 28 de marzo, el gobierno estadounidense demandó a Facebook por permitir que los anunciantes excluyeran a categorías enteras de personas que ven anuncios de viviendas: parejas con hijos, no estadounidenses, no cristianos, personas con discapacidades, hispanos, etc. El Departamento de Vivienda y Desarrollo Urbano (HUD, por sus siglas en inglés) dijo que esto violaba la Ley de Vivienda Justa, que prohíbe la discriminación contra ciertos grupos «protegidos».

Recibe nuestro boletín diario

Actualice su bandeja de entrada y obtenga nuestro envío diario y las selecciones del editor.

Facebook ha intentado limpiar su acto, cerrando herramientas que permitían a los anunciantes apuntar a los usuarios de Facebook por edad, género y código postal. Sin embargo, HUD está buscando «alivio apropiado» para las acciones pasadas de Facebook. La demanda de HUD también acusó a Facebook de discriminar a las minorías a través de los algoritmos que utiliza para dirigir su negocio de publicidad. Estos son los mismos que usa Facebook para maximizar los clics y las vistas, y por lo tanto los ingresos.

Un documento publicado el 3 de abril por investigadores de la Northeastern University en Boston, la University of Southern California y Upturn, un grupo de defensa con sede en Washington, parece agregar peso a la afirmación de HUD. El equipo de investigación, liderado por dos científicos informáticos, Muhammad Ali y Piotr Sapiezynski, de Northeastern, concluyen que los sistemas propios de Facebook están influenciados por la raza y el género de sus usuarios cuando los presenta con anuncios. La investigación aún no ha pasado por un proceso de revisión por pares, pero The Economist le pidió a seis expertos en el campo que comentaran los resultados del documento. Los seis dijeron que parecía sonido.

Los señores Sapiezynski y Ali probaron los sistemas de Facebook pagando los anuncios y observando a quiénes fueron entregados. Proporcionaron cientos de pares de anuncios, cada uno de los cuales era idéntico en todas menos una característica. Descubrieron que, por ejemplo, se entregaba un anuncio con la misma imagen a menos personas negras si afirmaba que se refería a una propiedad en venta en lugar de a otra en alquiler.

También muestran que la raza de personas representadas en imágenes afectó a los grupos que tenían más probabilidades de ver los anuncios. Un anuncio de casas baratas a la venta, que mostraba familias blancas, fue entregado a una audiencia que era 85% blanca. Un anuncio idéntico que contenía imágenes de familias negras se presentó a una audiencia que comprendía alrededor del 73% de los usuarios blancos. Esto sugiere que menos personas negras vieron anuncios de viviendas baratas o asequibles cuando esos anuncios usaron imágenes de personas blancas.

Los investigadores también encontraron una disparidad basada en el género: los puestos de trabajo para los empleados de los supermercados y los conserjes solían ser entregados a las mujeres, mientras que los anuncios de los leñadores tenían más probabilidades de ser entregados a los hombres.

«Incluso un anunciante bienintencionado podría llegar a una audiencia mayoritariamente blanca y / o mayoritariamente masculina», dijo Sapiezynski, resumiendo su investigación. «Eso se debe a que los algoritmos opacos de Facebook, entrenados en datos históricamente sesgados, predicen que esas personas estarán más interesadas».

La investigación ofrece pruebas convincentes de que Facebook está utilizando la «visión artificial», por lo que las computadoras potentes escanean imágenes y reconocen lo que representan. Esto es algo que ha sido asumido por mucho tiempo pero nunca probado. Los investigadores establecieron el uso de la visión artificial al cambiar la transparencia de las imágenes que usaban en sus anuncios, de modo que fueran visibles para las máquinas, pero no para los humanos. De lo contrario, los anuncios idénticos con diferentes imágenes de familias blancas y negras se enviarían a diferentes grupos de personas.

La publicidad se basa en gran medida en tratar de llegar a grupos particulares de personas. Los vendedores de relojes de lujo quieren vender a personas ricas, por ejemplo, que tienen más probabilidades de ser blancas que negras. Pero la capacidad de los algoritmos para llegar a la audiencia deseada al tamizar grandes cantidades de datos personales está causando una creciente consternación. Esto es especialmente cierto en Facebook debido a su escala en relación con los medios tradicionales. Además, sus sistemas de publicidad son demasiado complejos para ser entendidos de un vistazo. Esto hace que sea más difícil trazar una línea clara entre los anuncios que son claramente discriminatorios y los que son meramente incómodos.

Christian Sandvig, director del Centro de Ética, Sociedad y Computación de la Universidad de Michigan , dijo que la investigación mostró que Facebook está tomando «decisiones editoriales drásticas, importantes y potencialmente ilegales todo el tiempo al usar sistemas algorítmicos para identificar a las audiencias». El señor Sandvig no estuvo involucrado en el trabajo.

Facebook parece aceptar los resultados. En una declaración, Elisabeth Diana, una portavoz de Facebook, dijo: «Estamos en contra de la discriminación en cualquier forma. Hemos realizado cambios importantes en nuestras herramientas de segmentación de anuncios y sabemos que esto es solo un primer paso. Hemos estado analizando nuestro sistema de publicación de anuncios y hemos involucrado a líderes de la industria, académicos y expertos en derechos civiles en este tema, y ​​estamos explorando más cambios «.

Los investigadores se esfuerzan por señalar que no están haciendo declaraciones radicales sobre todo el sistema de publicación de anuncios de Facebook, dado que monitorearon su comportamiento solo en unas pocas situaciones. No hay ninguna sugerencia de que Facebook haya diseñado sus sistemas para discriminar intencionalmente. Pero su software de aprendizaje automático, en el proceso de capacitación sobre los datos de los usuarios de Facebook con el fin de adaptar los anuncios a sus intereses, parece haber absorbido algunos de sus prejuicios.

La preocupación se extiende más allá de Facebook a todos los sistemas que dependen del aprendizaje automático, incluida la mayoría de los proveedores de contenido digital. “Este documento nos dice que si tus padres nunca fueron a la universidad, es muy probable que un algoritmo analice tu patrón de clics y asociaciones y concluya que no estás interesado en la universidad. Si eres negro, decidirá que estás menos interesado en comprar una casa «, dice el Sr. Sandvig.

Las compañías de tecnología tienden a afirmar que están protegidas de la responsabilidad por este tipo de efectos dañinos. La Ley de Decencia en las Comunicaciones establece que las plataformas digitales no son responsables del comportamiento ilegal de sus usuarios. Pero la investigación parece mostrar que los propios sistemas de Facebook están contribuyendo a la discriminación.

Los resultados arrojan dudas sobre las afirmaciones de Facebook de ser ciegos a la raza, dice David García, investigador del Complexity Science Hub en Viena, Austria. «Tal vez no haya una tabla en las bases de datos de Facebook llamada ‘raza’, pero estos resultados sugieren que se está produciendo cierta discriminación relacionada con la raza en la publicidad», dice.

Después de dos años de relaciones públicas abismales, la investigación es otro golpe para Facebook. El mes pasado, Mark Zuckerberg, el jefe de Facebook, intentó recuperar la iniciativa y pidió una regulación extensa de las empresas de tecnología digital. Argumentó, por ejemplo, que las empresas de tecnología «no deberían tomar tantas decisiones importantes sobre el habla por nuestra cuenta». Pero él estaba notablemente callado en el tema del modelo de publicidad de Facebook. Allí, la regulación puede llegar antes de lo que él espera, y probablemente no en la forma que está esperando.

Read More

Por admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.