Director Gerente en Experian Asia Pacífico con experiencia en emprender, escalar y liderar negocios.

La equidad como concepto ha sido durante mucho tiempo un tema de discusión apasionante. Los crecientes casos de uso de aprendizaje automático (ML) e inteligencia artificial (IA) en los últimos tiempos han intensificado la conversación.

Cuando las personas no están de acuerdo sobre lo que creen que se les debe dar, inevitablemente surgen cuestiones de equidad. Cada vez que asigna recursos a un grupo y no al otro, ya está introduciendo alguna injusticia o discriminación.

Las Naciones Unidas advirtieron que la pandemia de Covid-19 podría revertir décadas de reducción de la pobreza en el sudeste asiático, ya que pone en peligro los medios de vida de los 218 millones de trabajadores informales de la región. Es importante garantizar la inclusión de todos. Como dijo una vez Nelson Mandela: «Estoy más influenciado que nunca por la convicción de que la igualdad social es la única base de la felicidad humana».

A medida que la IA se generaliza y encuentra servicios públicos más diversos en nuestra vida diaria, desde automóviles sin conductor hasta obtener un préstamo bancario, ahora es aún más crítico eliminar el sesgo y abordar la inclusión. El crecimiento de las fuentes de datos digitales está dando como resultado un crecimiento paralelo en el uso de modelos que se basan en la inteligencia artificial para tomar decisiones, especialmente en la evaluación del riesgo crediticio con fuentes de datos alternativas como los datos de telecomunicaciones.

Cómo la equidad de la IA afecta a las empresas y la sociedad

En los últimos años, la IA y su injusticia han tenido una participación justa en los medios de comunicación, especialmente en áreas como el reconocimiento facial en los aeropuertos y la contratación. A Estudio del Departamento de Comercio de EE. UU. en la prueba del proveedor de reconocimiento facial en 2019 destacó cómo el software de reconocimiento facial mostró una mayor tasa de coincidencias erróneas entre dos fotos para personas asiáticas y negras en comparación con las personas blancas. En 2018, Amazon detuvo el uso de su algoritmo de contratación, ya que estaba penalizando las aplicaciones que contenían el término «mujeres».

¿Por qué deberíamos preocuparnos por la justicia ahora? Es porque los consumidores recuerdan y recuerdan sus experiencias con el sesgo de ML, como se muestra en un estudio de Google. Los investigadores hablaron con personas que se identificaron como de orígenes socioeconómicos subrepresentados. Cuando se le preguntó acerca de segmentación de anuncios online, describieron haber visto un sinfín de «anuncios de bajos ingresos» que no eran relevantes para su situación. Se opusieron firmemente a los anuncios en línea personalizados en función de las características demográficas o en función del comportamiento en línea de los usuarios que los comparten.

Obtener acceso no bancarizado al crédito con algoritmos justos

Las instituciones financieras pueden usar IA explicable para mostrar cómo un algoritmo o máquina decide prestar, aumentando así la transparencia para sus clientes. Sin embargo, el motivo de la injusticia suele ser involuntario. Las métricas de equidad más utilizadas son la paridad demográfica y las probabilidades igualadas.

La evolución de estas métricas ha dado como resultado un progreso en la eliminación del sesgo del ML a través de algunas técnicas como el preprocesamiento, el posprocesamiento y la introducción de equidad en el proceso de capacitación. El preprocesamiento se centra en los datos (la principal fuente de sesgo), mientras que el posprocesamiento se centra en alterar la decisión de los modelos para llegar a resultados justos. El punto de partida para garantizar la equidad en ML es reunir un conjunto equilibrado de datos. Sin embargo, se necesita una gran cantidad de datos y experiencia si se quiere determinar realmente si un sistema de IA es justo.

Con los desafíos socioeconómicos del sudeste asiático debido a Covid-19, es aún más importante garantizar la equidad para todos, especialmente para las comunidades no bancarizadas. Al igual que el proverbio africano, «Se necesita una aldea para criar a un niño», lo mismo puede decirse de la necesidad de un enfoque por ecosistemas, con actores de la industria, académicos, reguladores y la sociedad trabajando juntos para que las decisiones basadas en IA sean justas para todos .

Naciones del sudeste asiático y sus hojas de ruta de IA

Actualmente, no existe un conjunto de normas y regulaciones de inteligencia artificial acordadas a nivel regional en el sudeste asiático, ya que los países de la región están implementando marcos de políticas de manera gradual. En Indonesia, el Ministerio de Investigación y Tecnología lanzó un Estrategia de IA el año pasado con un enfoque en los servicios de salud, la reforma burocrática, la educación y la investigación, la seguridad alimentaria, la movilidad y las ciudades inteligentes. Mientras tanto, en Malasia, Directrices de IA fueron establecidos por el banco central en su política eKYC en junio de 2020.

En 2019, el Ministerio de Economía y Sociedad Digital de Tailandia redactó el primer Pautas de ética de la IA, asegurando que la tecnología tenga en cuenta la igualdad y la justicia. Filipinas también planea implementar una Hoja de ruta de la IA este año. La hoja de ruta, según el Departamento de Comercio e Industria, ayudará al país a ser un “centro de inteligencia artificial por excelencia” en la región. Vietnam también dio a conocer recientemente su Plan maestro de IA, detallando estrategias para desarrollar y desplegar IA hasta 2030.

Singapur está trabajando con la industria para aprovechar la IA de manera responsable y lanzó el Marco de la iniciativa MAS-Veritas el año pasado. En mi opinión, la iniciativa cuenta con un fuerte y progresivo respaldo de los reguladores, así como con una importante participación de la industria.

Los reguladores deberían ayudar a impulsar la adopción de la inteligencia artificial y determinar el ritmo de la innovación para las empresas de tecnología financiera, posiblemente pasando a plataformas de banca abierta eventualmente. Los gobiernos también podrían facilitar esto estableciendo una base política sólida, estableciendo metas aspiracionales y estimulando la innovación y adopción del sector privado. Las empresas, a su vez, deben mantenerse al día con todos los estándares y regulaciones.

Un enfoque ecosistémico para la IA ética y el uso de datos

Las innovaciones en las fintech, como las tecnologías de contabilidad distribuida, las monedas virtuales, el aprendizaje automático y el big data pueden mejorar la inclusión financiera, pero la confianza es igualmente importante. Las empresas tecnológicas y las instituciones financieras pueden impulsar el desarrollo y la adopción de la inteligencia artificial, y los gobiernos tienen un papel fundamental que desempeñar para brindar beneficios en toda la sociedad. El uso de IA y ML debe ser para crear una situación sostenible en la que todos ganen y no tolerar la discriminación. Todos deben asegurarse de que la IA se convierta en una herramienta para el bien de la sociedad y no simplemente exacerbe los desafíos socioeconómicos actuales.


Consejo Empresarial de Forbes es la principal organización de crecimiento y creación de redes para empresarios y líderes. ¿Califico?


Dejar respuesta

Please enter your comment!
Please enter your name here