EL RÁPIDO DESARROLLO DE LA INTELIGENCIA ARTIFICIAL (IA) es muy prometedor, pero también presenta posibles dificultades. La IA puede cambiar la forma en que vivimos, trabajamos y jugamos, acelerar los descubrimientos de drogas e impulsar la computación de vanguardia y los sistemas autónomos. También tiene el potencial de transformar la política, la economía y la cultura globales de formas tan profundas que Estados Unidos y otros países están preparados para entrar en lo que algunos especulan que será la próxima carrera espacial .
Recién estamos comenzando a comprender las implicaciones de la IA sin control. Los titulares recientes han destacado sus limitaciones y la necesidad continua de control humano. No podremos ignorar la gama de riesgos éticos que plantean las cuestiones de privacidad, transparencia, seguridad, control y prejuicios. Ejemplos incluyen:
"La IA está perjudicando a las personas de color y a los pobres. Los expertos quieren arreglar eso"
"Por qué la inteligencia artificial tendrá debilidades muy humanas"
Teniendo en cuenta los avances que ya se han logrado en la inteligencia artificial, y los que aún no se han logrado, la inteligencia artificial está sin duda en una trayectoria hacia la integración en todos los aspectos de nuestras vidas. A medida que nos preparamos para entregar una parte cada vez mayor de las tareas y la toma de decisiones a la IA, debemos pensar de manera más crítica sobre cómo influye la ética en el diseño de la IA para minimizar el riesgo. Con esto en mente, los legisladores deben considerar de manera proactiva formas de incorporar la ética en las prácticas de IA y diseñar incentivos que promuevan la innovación al tiempo que garantizan que la IA funcione teniendo en cuenta nuestros mejores intereses.
En un mundo de IA, se amplifica el principio de basura que entra / basura
Con tanto en juego, es tentador reflexionar sobre si los problemas éticos pueden resolverse mediante simples cambios de algoritmo. ¿Por qué los tecnólogos de IA no pueden asociarse con filósofos o éticos e inmediatamente cambiar el cálculo para infundir moralidad en los mismos algoritmos en los que se basa la IA? No es tan simple. La definición de qué es exactamente justo y equitativo, y en qué contexto, no tiene una respuesta clara. Más allá de las definiciones turbias y la falta de consenso común, el problema no está solo en los algoritmos mismos, sino en los datos utilizados para entrenarlos.
Quizás lo más importante es el sesgo intencional y no intencional incrustado en los conjuntos de datos con los que se entrena la IA. El sesgo en la IA puede adoptar muchas formas: sesgo del conjunto de datos, sesgo de asociación, sesgo de interacción, sesgo de automatización y sesgo de confirmación ( Cou et al., 2017 ). Puede ser el resultado de errores simples o la supervisión de las técnicas de agregación de datos. Luego, las computadoras usan estos datos potencialmente defectuosos para hacer suposiciones y cálculos que no son realmente objetivos. Esto por sí solo puede no parecer abiertamente peligroso, pero el problema real radica en la posibilidad de que estos sesgos o discrepancias se escalen hasta tal punto que afecten la forma en que las computadoras tratan conjuntos de datos más grandes. Los datos sesgados hacen que el aprendizaje automático se base en un sesgo injustificado para discriminar a los grupos a escala ( Crawford, 2017 ).
Las tecnologías de IA que ya están en el mercado están mostrando estos sesgos intencionales y no intencionales. Por ejemplo, considere la tecnología de búsqueda de talentos que agrupa intencionalmente los currículos de los candidatos por características demográficas o algoritmos de búsqueda de autocompletado insensibles ( Lapowsky, 2018 ). Por el contrario, al reforzar las nociones europeas de belleza, el concurso Beauty.AI mostró un sesgo de automatización involuntario en acción cuando las máquinas eligieron abrumadoramente a los ganadores con piel clara en lugar de a cualquiera de la gran cantidad de postulantes de piel oscura ( Levin, 2016 ).
Como nación, debemos comprender que las implicaciones de la IA van mucho más allá de los concursos de belleza o los objetivos publicitarios. La IA tiene la capacidad de crear falsificaciones casi indetectables de artículos de noticias, grabaciones de audio y videos, lo que dificulta separar la verdad de la ficción. Las organizaciones y los gobiernos serán responsables de sus acciones, o la falta de ellas, en la protección de los derechos de los ciudadanos a la privacidad, la equidad y la justicia.
El papel del gobierno en la implementación segura y responsable de la IA
Si bien no se puede esperar que la inteligencia artificial resuelva los acertijos filosóficos que han existido en la sociedad durante años, los líderes gubernamentales y los formuladores de políticas están en una posición única para liderar y financiar la I + D a largo plazo en temas como la ética y los prejuicios en los que las empresas pueden no tener incentivos para invertir. También deben introducir una política inteligente que equilibre la necesidad de innovación con la obligación de beneficiar y proteger a la sociedad. Tales medidas de mitigación deben construirse teniendo en cuenta la inclusión y la equidad, e incluir estos dos pasos fundamentales:
Establecer estándares y pautas para abordar los riesgos. El gobierno puede ayudar a enfrentar los riesgos de la IA liderando el desarrollo conjunto y la publicación de estándares y guías sobre seguridad, privacidad, ética y control en coordinación con la industria, académicos e interesados internacionales. Igualmente importante es la financiación continua de la investigación centrada en métodos de prueba y certificación, incluidos programas como la IA explicable de DARPA , que tiene como objetivo permitir que los humanos comprendan cómo se comportan los algoritmos de IA. El gobierno también debe enfocarse en establecer planes claros y expectativas para las organizaciones sobre cómo lidiar con las fallas cuando surjan, porque seguramente lo harán.
Dedique recursos públicos a la creación y conservación de conjuntos de datos precisos y libres de sesgos.Una línea de defensa contra los sistemas de inteligencia artificial que infligen un trato injusto es prestar más atención a cómo se construyen los conjuntos de datos antes de ponerlos en funcionamiento, lo que significa que la atención al sesgo no puede ser una ocurrencia tardía. Hoy en día, muchas de las fuentes de datos más poderosas provienen de dos lugares: (1) instituciones académicas y (2) corporaciones. Ambos tipos de conjuntos de datos tienen limitaciones. Los conjuntos de datos de la academia suelen estar limitados en función del tiempo y los recursos de quienes los utilizan para impulsar las publicaciones, mientras que los datos corporativos suelen ser representativos de conjuntos de clientes individuales en lugar del público en general. El gobierno debe publicar una guía sobre el intercambio de datos entre organizaciones públicas y privadas para garantizar la integridad de los datos al permitir la conservación de conjuntos de datos más diversos, sin dejar de adherirse a los estándares y guías antes mencionados.
Al liderar el diálogo ahora y comenzar a tomar acciones proactivas para abordar estos temas, el gobierno puede garantizar el desarrollo de la IA con un impacto neto positivo en la sociedad, en lugar de obstaculizar las oportunidades potenciales simplemente porque la ética no se consideró desde el principio.
¿Cuáles son otros desafíos y soluciones para la IA en el gobierno y más allá? Queremos escuchar de ti. Visite www.boozallen.com/ai para obtener más información.