Inteligencia artificial y género. Casos reales de IA que hubo que parar.

Con la irrupción definitiva de la IA de uso popular y masivo, el debate sobre inteligencia artificial y género se ha instalado en las grandes corporaciones que reconocen la justicia social como clave para el desarrollo de un futuro sostenible y justo.🌏

Teniendo en cuenta que la inteligencia artificial con ayuda del Big Data y el Machine Learning acelera exponencialmente cualquier proceso o cambio social donde interviene, hoy más que nunca necesitamos reflexionar sobre su capacidad de amplificar no solo lo bueno sino también los sesgos de género.

A pesar de las buenas intenciones, se ha demostrado que es inevitable que se filtren sesgos de género en el entrenamiento de los distintos tipos de algoritmos de inteligencia artificial, ya que son un reflejo de nuestra cultura.

Cómo se trasladan los sesgos de género de la IA a las personas

En un estudio publicado en la revista Computers in Human Behavior, se pidió a los participantes que evaluaran la calidad de las recomendaciones de una IA o de un experto humano en la selección de productos en línea. Los resultados mostraron que los participantes confiaban más en las recomendaciones de la IA que en las del experto humano, 👉incluso cuando las recomendaciones eran idénticas👈, a esta distorsión se la denomina “sesgo de autoridad tecnológica”.

El sesgo de autoridad tecnológica, interviene siempre que esté presente una IA y se refiere a la tendencia de las personas a aceptar la autoridad de la tecnología y a considerar que las decisiones o conclusiones tomadas por la IA son más precisas, objetivas y confiables que las tomadas por humanos, sin cuestionarlas adecuadamente.


De esta forma tendemos a favorecer toda información que confirme las afirmaciones que haya podido realizar una Inteligencia Artificial, y si esta información está sesgada en cuanto a género o raza, acabamos replicando y amplificando ideas distorsionadas que continúan perjudicando sistemáticamente a estos grupos.😱

 

Por ello, y más allá de lo eficiente / sorprendente / motivante que resulte “conversar” con chat GPT, es fundamental recordar siempre que hablamos con un algoritmo sesgado, dentro de una cultura donde la equidad aún no es una realidad, y por lo tanto requiere de nuestra reflexión crítica y valores.

Para que juntos podamos identificar sesgos de género en IA sobre los cuales mantener una pensamiento crítico y despierto,  hoy te traemos casos reales en 4 áreas que evidenciaron  algoritmos sesgados de IA  perpetuando la desigualdad de género.

Vamos allá👇

 

3 casos reales de Inteligencia Artificial con sesgos de género en salud

Hay áreas como la de la salud donde se hace más que evidente que los sesgos de género están instalados en la cultura y al ser potenciados por la autoridad de la tecnología pueden tener consecuencias determinantes en la vida de las personas.

  1. Diagnóstico erróneo de enfermedades cardíacas
    Un estudio publicado en la revista Circulation  encontró que los algoritmos utilizados para diagnosticar enfermedades cardíacas al ser entrenados con datos de pacientes masculinos, trasladaban un sesgo de género que equivalía a una tasa de diagnósticos erróneos en mujeres.
    Según el estudio, las mujeres tenían un 50% 😱 más de probabilidades de ser diagnosticadas incorrectamente que los hombres.
  2. Detección de cáncer de mama
    Un estudio publicado en la revista Nature en 2020 encontró que los algoritmos utilizados para detectar el cáncer de mama tenían un sesgo de género. Los algoritmos se basaron en datos de pacientes masculinos, lo que resultó en una menor precisión en la detección de cáncer de mama en mujeres. Según el estudio, los algoritmos tenían una precisión del 93% en pacientes masculinos, pero solo del 86%👀 en pacientes femeninas.
  3. Diagnóstico de enfermedades autoinmunitarias:
    Un estudio publicado en la revista Arthritis & Rheumatology  encontró que los algoritmos utilizados para diagnosticar enfermedades autoinmunitarias tenían un sesgo de género. Los algoritmos se basaron en datos de pacientes masculinos, lo que resultó en un diagnóstico erróneo en mujeres.
    Según el estudio, las mujeres tenían un 30% más de probabilidades de ser diagnosticadas incorrectamente que los hombres.

3 casos reales de tecnología de vigilancia con sesgos de género en su Inteligencia Artificial

Hay varios ejemplos de tecnología de vigilancia basada en IA que ha perjudicado a las mujeres debido a los sesgos, algunos de ellos son:

  1. Sistema de reconocimiento facial de la policía de Detroit: En 2020, la policía de Detroit utilizó un sistema de reconocimiento facial basado en IA que identificó incorrectamente a una mujer negra como sospechosa de robo. La mujer fue arrestada y pasó una noche en la cárcel antes de que la policía determinara que la identificación era errónea. Se cree que el sistema de reconocimiento facial tiene un sesgo racial y de género, lo que significa que es más propenso a identificar erróneamente a las personas negras y a las mujeres.
  2. Sistema de vigilancia de la ciudad de Nueva York: El sistema de vigilancia de la ciudad de Nueva York utiliza cámaras de video y un algoritmo de análisis de imágenes para monitorear la ciudad. Sin embargo, un informe de la Unión de Libertades Civiles de Nueva York encontró que el sistema tenía un sesgo de género. Las mujeres fueron más propensas que los hombres a ser consideradas sospechosas de actividades delictivas en áreas monitoreadas, incluso cuando no estaban haciendo nada ilegal.
  3. Cámaras de vigilancia en el transporte público: Un estudio realizado en el transporte público de Londres encontró que las cámaras de vigilancia eran más propensas a enfocarse en mujeres jóvenes que en hombres jóvenes, lo que sugiere que el sistema tenía un sesgo de género.

Estos ejemplos muestran cómo la tecnología de vigilancia basada en IA puede tener consecuencias graves para las mujeres cuando se ignora/minimiza la interferencia de los sesgos, especialmente las mujeres negras y otras mujeres de color, que a menudo son más propensas a ser objeto de vigilancia y sospecha injustificada. Se está trabajando para que se tomen medidas que garanticen que la tecnología de vigilancia no contribuya a la discriminación de género y se eviten estos sesgos en su diseño y aplicación.

 

3 casos reales de sesgos de género en la Inteligencia Artificial de las grandes tecnológicas

  1. Amazon: Amazon desarrolló un sistema de reclutamiento automatizado basado en IA para ayudar a seleccionar currículums de candidatos. El sistema se entrenó con datos históricos de contratación, que en gran medida reflejaban la mayoría de los empleados de Amazon: hombres. Como resultado, el algoritmo comenzó a penalizar a los currículums que incluían palabras como “mujeres” o referencias a clubes universitarios de mujeres. Amazon finalmente abandonó el proyecto.
  2. Twitter: La IA utilizada por Twitter para seleccionar las fotos que aparecen en las vistas previas de los tweets dio lugar a un sesgo de género. Las vistas previas de los tweets que incluían fotos de hombres eran más grandes que las vistas previas de los tweets que incluían fotos de mujeres, lo que sugiere que la IA estaba dando prioridad a los tweets que incluían fotos de hombres.
  3. Google: Un estudio realizado por investigadores de Google en 2021 encontró que la tecnología de reconocimiento de voz utilizada por Google Assistant tenía una tasa de error un 1,5 veces mayor para las voces femeninas que para las masculinas. Esto se debe a que los sistemas de reconocimiento de voz suelen ser entrenados con datos de voz masculina, lo que resulta en una falta de precisión para las voces femeninas.

 

3 casos reales de asistentes de voz con IA que amplifican sesgos de género

De los distintos casos vamos a referirnos a los asistentes que podemos tener en casa:

  1. Siri y el acoso sexual: Un informe del New York Times reveló que Siri, el asistente virtual de Apple, respondía a las preguntas relacionadas con el acoso sexual de manera inapropiada o evasiva. Por ejemplo, cuando se le preguntaba “¿qué debo hacer si me están acosando sexualmente?”, Siri respondía con comentarios inapropiados o sugerencias que minimizaban la gravedad del problema. Esto fue especialmente preocupante porque las mujeres son más propensas a ser víctimas de acoso sexual.
  2.  Alexa y los estereotipos de género: Un estudio encontró que Alexa, el asistente virtual de Amazon, perpetuaba estereotipos de género. Cuando se le preguntaba “¿qué es una enfermera?”, Alexa respondía con una descripción estereotipada y sexista del trabajo. Además, Alexa tenía dificultades para entender las voces de las mujeres y tenía una tasa de error más alta al responder a las preguntas de las mujeres.
  3. Google y la publicidad sexista: Un informe de la BBC encontró que Google estaba mostrando anuncios sexistas a los usuarios en función de su género. Por ejemplo, cuando se buscaba un trabajo relacionado con la tecnología, los anuncios mostrados a las mujeres a menudo eran de trabajos menos remunerados y menos prestigiosos que los mostrados a los hombres. Esto es preocupante porque perpetúa la brecha salarial de género y limita las oportunidades de las mujeres en el mercado laboral.

 

Medidas que está tomando la industria al respecto

Algunas de las medidas más importantes que se están tomando:

  1. Recopilación y uso de datos desagregados por género: es importante recopilar datos desagregados por género para garantizar que las IA tengan en cuenta las diferencias de género, así como tener en cuenta el cruce con otros factores de diversidad, como la raza, la etnia y la orientación sexual.
  2. Evaluación y prueba de IA: las IA deben ser evaluadas y probadas rigurosamente para detectar sesgos de género y otros tipos de sesgo. Esto implica el uso de datos de prueba que sean representativos y equilibrados por género, así como el monitoreo y la evaluación continua del desempeño de la IA.
  3. Asignación de responsabilidades y transparencia: es importante asignar responsabilidades claras para garantizar que las IA sean justas y precisas para todos los pacientes. También es importante que la toma de decisiones de las IA sea transparente y explicada para garantizar que los resultados sean comprensibles y justificables.
  4. Inclusión de diversidad en el diseño de la IA: los equipos que diseñan y desarrollan las IA deben ser diversos y representativos para garantizar que las IA tengan en cuenta las perspectivas de género y otros factores de diversidad. Esto puede incluir la contratación de más mujeres y personas de diversas identidades de género en los equipos de diseño y desarrollo de IA.
  5. Creación de regulaciones y estándares: se necesitan regulaciones y estándares claros para garantizar que las IA sean justas y precisas para todos los pacientes. Esto puede incluir la creación de regulaciones que exijan la evaluación y prueba de las IA y la inclusión de criterios de equidad de género en la evaluación y prueba de IA.

 

Conclusiones

A pesar de que los desarrolladores de IA no tienen en mente amplificar desigualdades cuando codifican y de que los desarrollos enfocados en causas de impacto social y medioambiental se multiplican cada día 🌱, es inevitable que los algoritmos que la alimentan se vean influenciados por los sesgos presentes en la cultura de la cual aprenden en su proceso de entrenamiento.

Al ser entrenados por seres humanos o por contenidos producidos por ellos, adquieren no solo su conocimiento, sino también su perspectiva subjetiva del mundo, la cual está influenciada por todo lo positivo y lo negativo de la cultura. Y es que para erradicar los sesgos de la IA deberíamos eliminarlos de la cultura💪

Ya hemos comprobado cómo utilizar una IA  puede ser útil, enriquecedor o divertido, pero también una ocasión diaria de interactuar con miles de sesgos que no llegamos a detectar de forma consciente. La acumulación de estas pequeñas interacciones va desviando nuestra percepción tendiendo a validar las ideas implícitas en el sesgo y normalizando las desigualdades 😔.
Nuestro mejor aliado: el compromiso que está uniendo a las compañías tecnológicas hacia una nueva corriente denominada “inteligencia artificial responsable🚀,  un enfoque que prioriza el impacto responsable de la tecnología por sobre los beneficios y que está trazando el futuro del rol de la tecnología en una sociedad más sana y justa.

Si bien está claro que la tecnología responsable ha llegado para garantizar que estos efectos colaterales desaparezcan, no podemos olvidar nuestra responsabilidad individual. Es indispensable mantener una actitud curiosa y despierta, para emplear nuestro criterio basado en valores y poder disfrutar así de los enormes beneficios que trae la inteligencia artificial a nuestra sociedad, sin caer en la repetición automática de ideas que sin nuestro propio filtro podrían inducirnos a ampliar desigualdades.

 

0 Shares:
You May Also Like