La IA de Google ya no etiquetará fotos con género, sino que usará 'Persona'

La IA de Google ya no etiquetará fotos con género, sino que usará 'Persona'

Google ha anunciado que su algoritmo de visión por computadora ya no etiquetará fotos con género. De acuerdo con un correo electrónico enviado a los desarrolladores ayer, la herramienta impulsada por IA ya no usará etiquetas de género como "mujer" u "hombre", y en su lugar pasará por defecto a "persona".

El cambio se aplica a la nube Vision API que los desarrolladores pueden usar para etiquetar fotos en función de lo que la computadora "ve" dentro del marco. De acuerdo con Business Insider a quien se le envió una copia del correo electrónico en cuestión, esa API ahora se ha cambiado para evitar posibles sesgos.

“Dado que la apariencia no puede inferir el género de una persona, ", Lee el correo electrónico," hemos decidido eliminar estas etiquetas para alinearnos con los Principios de Inteligencia Artificial en Google, específicamente el Principio # 2: Evite crear o reforzar un sesgo injusto ".

Probar la API para nosotros revela que el el cambio ya entró en vigencia:

La IA de Google ya no etiquetará fotos con género, sino que usará 'Persona'

El tipo de sesgo al que se refiere Google es el resultado de "datos de entrenamiento defectuosos", lo que necesariamente lleva al algoritmo a hacer ciertas suposiciones. Cualquiera que no encaje dentro del binario entrenado de ese algoritmo de cómo se vería un "hombre" o "mujer" será, por lo tanto, automáticamente confundido por la IA. Esto es lo que Google está tratando de evitar.

El Principio de Inteligencia Artificial que Google menciona en el correo electrónico establece específicamente que Google intentará "evitar impactos injustos en las personas", especialmente en lo que se refiere a "sensible características ”como raza, etnia, género, creencias políticas y orientación sexual, entre otros.

Según Business Insider la decisión ha tenido resultados previsiblemente polarizantes. Un experto en políticas de Mozilla con el que hablaron dijo que la medida fue "muy positiva" y estuvo de acuerdo con Google en que el género de una persona no puede inferirse por apariencia, mientras que al menos un desarrollador afectado respondió también al cambio al afirmar que "la corrección política tiene cabida en APIs. ”

(a través de The Verge )


Créditos de imagen : Foto de encabezado de Mitchell Luo foto de prueba de API de Philip Martin , ambos CC0

Leave a Reply