La tecnología de sofware para reconocimiento facial es una industria en auge, con un mercado que se espera que crezca un valor estimado de 3.800 millones de dólares en 2020 a 8.500 millones de dólares en 2025, según ReportLinker. Sin embargo, las interfaces persona-máquina casi nunca se crean teniendo en cuenta a las comunidades de personas que se identifican como transgénero o no binarias, por lo que las características de verificación de la identidad de estos colectivos acaban excluyéndose de los conjuntos de datos de inteligencia artificial (IA) y se refuerzan los prejuicios existentes.
Según una Encuesta sobre Discriminación Transgénero, solo un 21% de las personas transgénero que han hecho la transición han podido actualizar todos sus documentos de identidad y registros con su nuevo género, mientras que un 33% no ha actualizado ninguno de sus documentos o registros. Por tanto, con tantas personas que ni siquiera tienen acceso a documentos formales que identifiquen correctamente su género, hay muy poco poder para combatir las falsas identificaciones de los algoritmos.
Si seguimos por este camino y a la misma velocidad, las empresas de software apoyarán, involuntaria o intencionadamente, los prejuicios contra estos grupos minoritarios en particular. Para crear un escenario más justo y equitativo en la forma en que las tecnologías de IA influyen en nuestras vidas, el primer paso es educarnos sobre el tema para poder impulsar el cambio y la responsabilidad.
Dado que junio es el Mes del Orgullo LGBTQ+, queremos celebrar el impacto que las personas homosexuales, bisexuales y transexuales han tenido en nuestras comunidades a nivel local, nacional e internacional y abogar por avances en la representación igualitaria. Esto incluye concienciar y explorar los problemas relacionados con el sesgo biométrico en el software de verificación de la identidad para el sector de los servicios financieros, así como para cualquier otro sector.
Igual es igual, así que, ¿por qué algunas identidades funcionan mejor que otras?
El acceso digital es una necesidad diaria en la vida de todos. Permite realizar transacciones financieras, compras en línea, y acceder a la educación, la asistencia sanitaria e incluso las citas. Por desgracia, el acceso equitativo no está llegando a permitir que todas las personas tengan las mismas oportunidades. En particular, la comunidad LGBTQ+ se está viendo afectada de forma negativa por el sesgo biométrico en lo que se refiere a sus propias identidades digitales.
Teniendo en cuenta que, según una encuesta, de media en España el 12% de personas se identifica con otro género, es importante que todo el ecosistema preste atención y se esfuerce por comprender los retos a los que se enfrenta este grupo demográfico. Solo así las empresas podrán ofrecer soluciones digitales alternativas que sean más inclusivas para los grupos minoritarios, que, en conjunto, constituyen un porcentaje significativo de la población general, es decir, de los clientes.
La biometría es una fuerte línea de defensa para probar y autentificar de forma fiable la identidad de una persona, pero la biometría facial, en particular, puede no ser la primera capa de verificación adecuada para las personas transgénero. Un método alternativo que no es específico del género podría ser el uso de huellas dactilares, por ejemplo.
¿Por qué la igualdad biométrica es importante?
Los identificadores biométricos de un individuo son elementos fundamentales en su identidad digital y vinculados a la documentación ayudan a cualquier persona a acceder de forma cómoda a diferentes servicios en línea. Las soluciones de verificación de la identidad, que abarcan desde la banca hasta la educación y la sanidad, están cada vez más arraigadas en nuestra vida cotidiana.
A primera vista, la migración digital de los servicios hacia la modalidad en línea parece cómoda, rápida e intuitiva. Sin embargo, no todos los grupos demográficos de la población experimentan una transición fluida. Para determinados grupos, el sesgo biométrico y la desigualdad han creado una barrera adicional para acceder a los servicios, incluidos algunos tan esenciales como el acceso a la sanidad.
Ya sea porque se incorpore a las herramientas de verificación de identidad de forma intencionada o no, la falta de inclusividad algorítmica en el diseño tecnológico ha generado exclusión digital. En un mundo en el que se depende tanto del acceso digital, esta limitación tiene una repercusión importante en la vida de muchas personas.
Todos reconocemos, en términos conceptuales, lo que es el sesgo, pero solo ahora estamos comprendiendo que los sistemas biométricos desarrollados por las empresas tecnológicas y adoptados en todos los sectores para la verificación de la identidad han creado un nivel completamente nuevo de discriminación no intencionada. Puede que no sea tan evidente al principio, porque una persona común no conoce los mecanismos que suceden entre bastidores cuando intenta acceder a servicios digitales.
Sólo el reconocimiento facial no es eficaz para el colectivo LGBTQ+
La verificación automática de la identidad requiere que las personas demuestren que son quienes dicen ser en estas plataformas en línea. En muchas ocasiones, es necesario presentar un documento de identidad oficial como prueba. La tecnología utilizada para cotejar al solicitante con los datos del archivo suele utilizar el reconocimiento facial biométrico para demostrar que la persona que solicita el acceso no es un robot o un estafador.
Este tipo de reconocimiento descarta por completo las opciones de autoidentificación de los usuarios. En su lugar, determina el género del usuario escaneando su rostro y asignando la identidad de hombre o mujer en función de los datos analizados. Rasgos superficiales como la cantidad de maquillaje en la cara o la forma de la mandíbula y los pómulos colocarán su género en una categoría binaria. Por lo tanto, estos sistemas no pueden identificar correctamente a las personas no binarias y trans.
Varios investigadores han demostrado la ineficacia de la tecnología de reconocimiento facial para reconocer a las personas no binarias y transgénero, como Os Keyes en su artículo sobre los sistemas de reconocimiento automático de género (AGR). Esto se debe a que la mayoría de los algoritmos de reconocimiento facial se entrenan con conjuntos de datos diseñados para clasificar a los individuos en dos grupos, la mayoría de las veces masculino o femenino.
En consecuencia, las tecnologías biométricas de reconocimiento facial no pueden reconocer a los subgrupos basándose en su expresión de género, porque nunca se les proporcionó la información para identificar adecuadamente en todo el espectro. Al mismo tiempo, las interfaces de usuario que permiten a las personas añadir su información de género tampoco cuentan con las opciones necesarias para elegir el tipo de género.
Es importante tener en cuenta que la biometría en sí misma no está sesgada, ya que no toma ninguna decisión basada en valores humanos. El sesgo y la desigualdad en las tecnologías biométricas se deben a la falta de datos demográficos diversos, a los errores y a las incoherencias en los algoritmos.
Por ejemplo, si los datos de formación incluyen principalmente información con respecto a un solo grupo demográfico, los modelos de aprendizaje se centrarán desproporcionadamente en las características de ese grupo.
La incapacidad de identificar a las personas dentro de estos grupos tiene consecuencias en el mundo real. La falta de precisión de estas tecnologías puede llevar a que se maltrate a estas personas, ya sea por no poder conseguir la aprobación de productos y servicios financieros o tener problemas con el gobierno o la policía debido a una identificación errónea. Las personas que no están representadas pierden la capacidad de ser reconocidas y de luchar por sus libertades y derechos.
Debemos estar siempre abiertos a escuchar las necesidades y los retos a los que se enfrentan todos los colectivos cuando desarrollamos productos. Esto ayudará a garantizar que la igualdad, la inclusión y la accesibilidad estén debidamente representadas e incorporadas en nuestra tecnología.
¿Cuál es la solución adecuada?
Para llegar a un estado de igualdad de acceso e inclusión, las instituciones financieras pueden aprovechar los avances de la biométrica multimodal que ofrecen factores de autenticación más sólidos más allá del reconocimiento facial.
Para ello, tenemos que pensar qué datos biométricos son los más apropiados cuando se pide a las personas que demuestren su identidad. Lo más probable es que se trate de una combinación de datos biométricos presentados por etapas en función del nivel de riesgo. Para empezar, hay que preguntarse si este tipo de sistemas es necesario y cómo es el proceso de diseño para garantizar la igualdad de acceso y la inclusión. Tenemos que entender nuestros sesgos inconscientes, ampliar el contexto actual que estamos acostumbrados a seguir, y cambiar nuestros hábitos de utilizar los mismos tipos de conjuntos de datos si queremos crear algoritmos que sean realmente representativos e inclusivos de nuestros clientes.
Aunque la tecnología no puede resolver por completo los prejuicios hacia el colectivo LQBTQ+, hay posibilidades de crear nuevas tecnologías que pueden ayudar a resolver parte de esta discriminación. La clave es garantizar que las personas de este colectivo participen en el proceso de diseño. Por ejemplo, unos investigadores de las universidades de Michigan e Illinois realizaron sesiones de diseño con 21 miembros de la comunidad trans. Detallaron cuatro tipos de tecnologías que incluían al colectivo trans: tecnologías para cambiar el cuerpo, para cambiar la apariencia y/o las expresiones de género, para la seguridad y para encontrar recursos.
¿Quieres saber más sobre las preferencias generacionales respecto a la autenticación?
Conclusiones
El sesgo codificado puede discriminar y limitar el acceso del colectivo LGBTQ+ incluso a los elementos más básicos. No obstante, al haber una falta de regulación gubernamental, las tecnologías biométricas carecen de responsabilidad legal para abordar los problemas de accesibilidad de las personas transgénero y de cualquier otra persona dentro de un subgrupo minoritario. Estos grupos vulnerables están a merced de las organizaciones corporativas, que todavía pueden no entender por completo cómo se utilizan sus productos en la práctica y cómo su viaje de transformación digital afecta a los consumidores.
Es crucial que impliquemos a nuestros clientes y a nuestro público objetivo en nuestro proceso de I+D y que aprovechemos de verdad el aprendizaje para desarrollar nuestros sistemas de aprendizaje automático de forma que sean universalmente representativos. Cindy White, CMO de Mitek, recalca que “las organizaciones son responsables de reconocer el sesgo en sus tecnologías y trabajar para adaptar los modelos para reconocer las diferencias que nos hacen ser quienes somos. Esto podría consistir en diversificar los tipos de tecnologías biométricas que se utilizan para identificar a los usuarios, volver a entrenar los sistemas que están equivocándose con el género de las personas, cambiar la forma en que los sistemas clasifican por género y, lo más importante, escuchar a los clientes”.
Sin una innovación por parte del cliente, algunas tecnologías biométricas corren el riesgo de exacerbar las desigualdades existentes y hacer que la vida cotidiana sea difícil e injusta para las personas del colectivo LGBTQ+. Además, sin una protección adecuada de la privacidad, las violaciones de datos que tienen por objetivo los datos de reconocimiento facial pueden ser más probables. En las manos equivocadas, la orientación sexual o la identidad de género de una persona no revelada previamente puede convertirse en una herramienta para la discriminación, el acoso o perjuicio.
Si quieres saber más sobre cómo incluir a la comunidad transgénero y a otros colectivos LGBTQ+ en tu empresa, puedes consultar la web de la Comisión Europea