La compañía está reelaborando los algoritmos del dispositivo para ser más inclusiva. Te contamos en esta nota de qué se trata.
En la conferencia de desarrolladores de Google, Google I / O, celebrada este martes, la compañía anunció que está trabajando para reelaborar los algoritmos y ajustar los datos de entrenamiento que alimentan la cámara de los teléfonos Pixel para que pueda capturar de manera más precisa y brillante a las personas de color.
Específicamente, está trabajando para iluminar mejor a las personas con pieles más oscura y representar con mayor precisión el tono de piel. Además, las siluetas de personas con cabello ondulado o rizado se destacarán más claramente del fondo.
«La fotografía juega un papel importante en la configuración de cómo la gente te ve y cómo te ves a ti mismo. Es por eso que hemos estado trabajando con expertos de la industria como @thekirakelly, @micaiah_carter y @deunivory para construir una cámara más precisa y equitativa para las personas de color», tuiteó Google el pasado martes 18 junto con un video que explica la actualización.
Google llama a su proyecto Image Equity (Equidad de imagen). Algunos de los cambios implicarán entrenar los algoritmos que renderizan las fotos en un conjunto de datos más diverso, para que las personas blancas y la piel blanca ya no sean la definición predeterminada de «persona». Google también ajustará el balance de blancos automático y las capacidades de exposición automática del Pixel para optimizarlo mejor para las personas con piel más oscura.
Google no es la única empresa que ha sido señalada por tener un reconocimiento tecnológico con prejuicios raciales. El mes pasado, Snap anunció que estaba reelaborando el software de su cámara para representar mejor a las personas de color.