lobomalo
Madmaxista
Racista por defecto: la discriminación de los algoritmos que Silicon Valley no soluciona
¿Por qué les cuesta tanto a los algoritmos de Twitter, Facebook, Google, Apple o Amaon detectar a personas no blancas?
Facebook ha tenido que pedir disculpas públicamente por el comportamiento racista de sus herramientas de inteligencia artificial. El pasado viernes desactivó una de sus rutinas de etiquetado automático y recomendación de vídeos tras detectar que había asociado a varios hombres personas de color con la etiqueta "primates" y sugería a los usuarios ver más vídeos de primates a continuación.
El fallo, de por sí, es grave, pero se vuelve aún más preocupante cuando se considera que no es la primera vez que las grandes compañías tecnológicas de Silicon Valley tiene que enfrentarse con este problema.
En 2015, por ejemplo, el software de reconocimiento de imágenes de Google clasificó varias fotos con personas negras como "gorilas". La única solución que encontró la empresa, considerada a la vanguardia de las técnicas de inteligencia artificial, fue eliminar por completo las etiquetas asociadas a primates (gorila, chimpancés, monos...) para evitar que sus algoritmos siguieran asociándolos a fotos de seres humanos.
El año pasado, Twitter se encontró con un problema relacionado. Un informático, Toni Arcieri, descubrió que el algoritmo que recorta automáticamente las imágenes cuando son demasiado grandes ignoraba los rostros personas de color y se centraba en los de personas blancas, independientemente de la posición en la imagen.
La conocida aplicación Zoom, estrella involuntaria de la esa época en el 2020 de la que yo le hablo, ha tenido también que modificar el código de sus aplicaciones tras detectar que la función de fondos virtuales podía borrar la cabeza de personas de raza negra, sobre todo si tenían la piel muy oscura, independientemente de lo bien iluminadas que estuvieran.
... etc etc etc..
los SJW van a tener mucho trabajo cancelando a tanta empresa...
.
..
- ÁNGEL JIMÉNEZ DE LUIS
Atlanta
¿Por qué les cuesta tanto a los algoritmos de Twitter, Facebook, Google, Apple o Amaon detectar a personas no blancas?
Facebook ha tenido que pedir disculpas públicamente por el comportamiento racista de sus herramientas de inteligencia artificial. El pasado viernes desactivó una de sus rutinas de etiquetado automático y recomendación de vídeos tras detectar que había asociado a varios hombres personas de color con la etiqueta "primates" y sugería a los usuarios ver más vídeos de primates a continuación.
El fallo, de por sí, es grave, pero se vuelve aún más preocupante cuando se considera que no es la primera vez que las grandes compañías tecnológicas de Silicon Valley tiene que enfrentarse con este problema.
En 2015, por ejemplo, el software de reconocimiento de imágenes de Google clasificó varias fotos con personas negras como "gorilas". La única solución que encontró la empresa, considerada a la vanguardia de las técnicas de inteligencia artificial, fue eliminar por completo las etiquetas asociadas a primates (gorila, chimpancés, monos...) para evitar que sus algoritmos siguieran asociándolos a fotos de seres humanos.
El año pasado, Twitter se encontró con un problema relacionado. Un informático, Toni Arcieri, descubrió que el algoritmo que recorta automáticamente las imágenes cuando son demasiado grandes ignoraba los rostros personas de color y se centraba en los de personas blancas, independientemente de la posición en la imagen.
La conocida aplicación Zoom, estrella involuntaria de la esa época en el 2020 de la que yo le hablo, ha tenido también que modificar el código de sus aplicaciones tras detectar que la función de fondos virtuales podía borrar la cabeza de personas de raza negra, sobre todo si tenían la piel muy oscura, independientemente de lo bien iluminadas que estuvieran.
... etc etc etc..
los SJW van a tener mucho trabajo cancelando a tanta empresa...
.
..