Wendy González es la directora ejecutiva de Sama, el proveedor de datos precisos para una IA ambiciosa.

Todos hemos visto los titulares sobre la rápida adopción de la inteligencia artificial (IA) en todas las industrias. A partir de eficiencias mejoradas en la gestión del inventario a nuevas capacidades en desarrollo de vacunas, La IA tiene el poder de revolucionar la forma en que trabajamos, interactuamos y nos entretenemos.

Sin embargo, se discute con menos frecuencia la importancia de implementar una cadena de suministro de IA ética.

Al igual que otras grandes industrias, la IA puede tener problemas cuando se produce a escala. Sin embargo, con estimaciones que proyectan el espacio para crecer en 17,4% en 2021 solos, estamos en un punto crucial en el desarrollo de la tecnología. Al tomar los pasos necesarios para establecer prácticas estándar para su creación e implementación ahora, podemos garantizar que la IA se desarrolle de manera segura y se utilice para siempre en los próximos años.

Echemos un vistazo a tres formas en las que puede asegurarse de que el impacto sea fundamental para su modelo de negocio de IA.

Etapa de entrenamiento

Si está familiarizado con la IA, sabrá que tener un conjunto de datos diverso y sólido es fundamental para su éxito. Es por eso que generar impacto en su modelo de negocio de IA debe comenzar en las primeras etapas del desarrollo de algoritmos y creación de datos.

A pesar de su mayor implementación en las tecnologías y herramientas que utilizamos a diario, ocho de cada 10 Los proyectos de IA con datos de entrenamiento insuficientes fallan. Esto es especialmente preocupante cuando recordamos que la inteligencia artificial se utiliza para impulsar la instrumentación crítica, incluidos los automóviles que conducimos y las herramientas de nuestros médicos para detectar y tratar enfermedades.

Para garantizar que los conjuntos de datos sean efectivos y libres de sesgos, los proyectos de IA deben crear equipos de expertos en anotaciones y etiquetado. En estas primeras etapas del desarrollo de algoritmos, las empresas tienen una oportunidad única de involucrar a las comunidades De lo contrario, quedaron fuera de la economía digital en una industria técnica bien remunerada. En lugar de subcontratar este trabajo en el extranjero para mano de obra de menor costo, Los equipos de IA pueden imbuir su cadena de suministro de impacto a través de programas integrales de capacitación y empleo. Estos programas apoyan el crecimiento y el éxito a largo plazo de los empleados al tiempo que ayudan a derribar las opresivas barreras de entrada de la industria tecnológica.

Pruebas y validaciones internas

Una vez que haya creado un equipo de datos de capacitación confiable y basado en el impacto, debe validar su conjunto de datos para verificar si quedan sesgos y errores.

En los últimos años, hemos visto fallar la IA mal entrenada en algunos de los sectores más críticos de nuestra sociedad. En 2020, por ejemplo, fuimos testigos de la arresto por hurto ilícito de Robert Julian-Borchak Williams causado por un sistema de reconocimiento facial de aplicación de la ley sesgado en Michigan. Para evitar resultados negativos como este y garantizar que el impacto de su IA sea positivo, los proyectos deben recibir validaciones tanto internas como externas antes de su implementación.

La validación externa requiere que el contenido del conjunto de datos se comparta públicamente. Sin él, los sesgos internos pueden resultar en errores pasados ​​por alto. Actualmente, muy pocos proyectos dan este paso crucial. Esto se reflejó en un estudiar por STAT (se requiere suscripción): Al analizar 161 productos de IA que aprobó la Administración de Alimentos y Medicamentos (FDA), solo 73 revelaron en documentos públicos la cantidad de datos de pacientes utilizados en la validación del producto.

Para garantizar que su tecnología se utilice de forma eficaz, algunas empresas han decidido realizar estudios revisados ​​por pares para validar su IA. Google, por ejemplo, recientemente utilizó esta estrategia por su herramienta de dermatología.

Implementación ética

Una vez que la IA se obtiene y valida de forma ética, los equipos de IA deben invertir en oportunidades que no solo mejoren sus resultados, sino que también aprovechen su tecnología de alta calidad para siempre. En los últimos años, hemos visto a los equipos de IA desarrollar de manera efectiva soluciones de IA impulsadas por el impacto para combatir algunos de los problemas más urgentes en nuestra sociedad global.

Ejemplos de esto incluyen: Project Guideline, que utiliza el aprendizaje automático (ML) para permitir que las personas con discapacidad visual correr de forma independiente con la guía de un teléfono celular y una aplicación (mi empresa apoyó la creación de datos de capacitación para esta iniciativa); Reto de noticias falsas, que utiliza la competencia para fomentar el desarrollo de herramientas de procesamiento de lenguaje natural, inteligencia artificial y aprendizaje automático para ayudar con la identificación de noticias falsas; Allen Coral Atlas, que utiliza una herramienta basada en inteligencia artificial para limpiar imágenes satelitales de alta resolución para que los científicos puedan monitorear los arrecifes de coral; y la iniciativa liderada por IBM Green Horizons, que aprovecha el procesamiento de big data, la computación cognitiva y el Internet de las cosas (IoT) en sus pronósticos de contaminación y clima para ayudar a los planificadores urbanos.

Más allá de sus obvios beneficios tecnológicos, si se crea, valida e implementa de manera ética, la IA puede ser una herramienta poderosa para el bien en toda nuestra sociedad global. Para lograr esto, las empresas deben completar estos pasos para garantizar que su cadena de suministro de IA sea ética desde el inicio hasta la implementación.

¿Qué iniciativas de IA impulsadas por el impacto le inspiran más?


Consejo Empresarial de Forbes es la principal organización de crecimiento y creación de redes para empresarios y líderes. ¿Califico?


Dejar respuesta

Please enter your comment!
Please enter your name here