La AI tiene que valorar ciertas palabras para ofrecer una respuesta a los clientes que las empleen

La Inteligencia Artificial de Google se vuelve homófoba y racista

La Inteligencia Artificial de Google se vuelve homófoba y racista
Jueves, 26 octubre 2017 - 22:32 PM - Agencias
WhatsApp Email

La Inteligencia Artificial o AI, tan presente en nuestra vida cotidiana, sigue dejando noticias que demuestran un potencial sorprendente. Muchas veces, sin embargo, esa sorpresa tiene que ver con la imitación, por parte de un conjunto de algoritmos, de elementos tan propios de los humanos como la envidia, la mentira… o la homofobia.

El último caso lo protagoniza la AI de Google, que ya se hizo famosa al perfeccionar el arte de echarse la siesta. El código de conducta de la compañía prohíbe de forma explícita el abuso o la discriminación por orientación sexual, raza o religión. Sin embargo, su herramienta presenta todos estos sesgos al tiempo.

El “Cloud Natural Language API” es un proyecto en continuo desarrollo y aprendizaje que tiene que ver con lo que se denomina “análisis de sentimientos“. El algoritmo está determinado para almacenar términos con el fin de ofrecer una fluida conversación en múltiples idiomas a todo tipo de clientes.

Para ello, la AI tiene que valorar y registrar, del uno al diez, el tipo de comentario que el cliente le hace según una escala que va del “muy negativo” al “muy positivo”. Los entrenamientos que se realizan con la Inteligencia Artificial constan de varias frases escritas en diversos lenguajes que el algoritmo tiene que ponderar para ofrecer una respuesta adecuada.

El equipo de Google ha tenido, para ello, que establecer primero qué valores se asignan a distintas palabras. Y aquí viene el problema: términos como “homosexual”, “queer” o “heterosexual” tienen valores diferentes, a pesar de expresar en los tres casos conductas sexuales.

Lo mismo sucede con orientaciones religiosas. A pesar de que las distintas opciones entran en este mismo saco, la AI no valora igual la frase “soy negro” que “supremacía blanca” o “soy judío”. La primera y la última registran puntuaciones negativas y la que hace referencia al poder blanco se establece como neutral.

Aunque pueda parecer alarmante, lo cierto es que aún queda mucho para convertir a estas Inteligencias Artificiales en unas herramientas a prueba de todo tipo de moral.

Otros casos llamativos alertan al público de poco menos que una revolución de las máquinas, como cuando dos AI de Facebook se inventaron su propio idioma, pero en los términos actuales podemos encontrar muchos más casos de AI funcionando correctamente que siendo políticamente incorrectas. (TRECEBITS)

LO MÁS VISTO