Racista por defecto: la discriminación de los algoritmos que Silicon Valley

lobomalo

Madmaxista
Desde
20 Jul 2006
Mensajes
3.367
Reputación
3.893
Lugar
en el frio monte
Racista por defecto: la discriminación de los algoritmos que Silicon Valley no soluciona
  • ÁNGEL JIMÉNEZ DE LUIS
    Atlanta
Actualizado Martes, 7 septiembre 2021 - 02:01

¿Por qué les cuesta tanto a los algoritmos de Twitter, Facebook, Google, Apple o Amaon detectar a personas no blancas?


Facebook ha tenido que pedir disculpas públicamente por el comportamiento racista de sus herramientas de inteligencia artificial. El pasado viernes desactivó una de sus rutinas de etiquetado automático y recomendación de vídeos tras detectar que había asociado a varios hombres personas de color con la etiqueta "primates" y sugería a los usuarios ver más vídeos de primates a continuación.


El fallo, de por sí, es grave, pero se vuelve aún más preocupante cuando se considera que no es la primera vez que las grandes compañías tecnológicas de Silicon Valley tiene que enfrentarse con este problema.





En 2015, por ejemplo, el software de reconocimiento de imágenes de Google clasificó varias fotos con personas negras como "gorilas". La única solución que encontró la empresa, considerada a la vanguardia de las técnicas de inteligencia artificial, fue eliminar por completo las etiquetas asociadas a primates (gorila, chimpancés, monos...) para evitar que sus algoritmos siguieran asociándolos a fotos de seres humanos.

El año pasado, Twitter se encontró con un problema relacionado. Un informático, Toni Arcieri, descubrió que el algoritmo que recorta automáticamente las imágenes cuando son demasiado grandes ignoraba los rostros personas de color y se centraba en los de personas blancas, independientemente de la posición en la imagen.


La conocida aplicación Zoom, estrella involuntaria de la esa época en el 2020 de la que yo le hablo, ha tenido también que modificar el código de sus aplicaciones tras detectar que la función de fondos virtuales podía borrar la cabeza de personas de raza negra, sobre todo si tenían la piel muy oscura, independientemente de lo bien iluminadas que estuvieran.



... etc etc etc..




los SJW van a tener mucho trabajo cancelando a tanta empresa... meparto:meparto:meparto:




.
..
 

TheF00l

Nacido con el don de la risa en un mundo de locos
Desde
21 Abr 2021
Mensajes
1.166
Reputación
1.881
Y después nos vienen contando que los algoritmos de detección facial tienen un margen de error máximo del 5% y que reconocen a las personas hasta con gorras, gafas y/o mascaras.

En 2015, por ejemplo, el software de reconocimiento de imágenes de Google clasificó varias fotos con personas negras como "gorilas". La única solución que encontró la empresa, considerada a la vanguardia de las técnicas de inteligencia artificial, fue eliminar por completo las etiquetas asociadas a primates (gorila, chimpancés, monos...) para evitar que sus algoritmos siguieran asociándolos a fotos de seres humanos.
Hubiera sido curioso probar entonces fotografías de monos para ver cuántos falsos positivos como "personas negras" aparecían.
 
Desde
8 Nov 2013
Mensajes
2.008
Reputación
4.419
Es pura hez. Pura hez.

No hay problema alguno en detectar personas de color. Ni uno.
Por ejemplo, a mi la detección facial del curro me detecta con o sin gafas, con peinados distintos y hasta haciendo muecas. Y mi colectivo (blancos) está obviamente infrarepresentado en mi empresa en china.

Es todo pura propaganda victimista identity politics tironucable. Que ardor de estomago. Paguitas, subvenciones, ir dividiendo al personal, creando crispación, etc.

me gusta la fruta todos.