Acceder
dMesa de trabajo 4.png
  • Inicio

  • El proyecto

    • Sobre el proyecto
  • Repositorio digital

  • Auditorio

  • Observatorio de ética

  • Contenidos

    • Webinars y eventos
    • Blog
  • More

    Use tab to navigate through the menu items.
    Para ver esto en acción, dirígete a tu sitio ya publicado.
    • Todas las entradas
    • Mis entradas
    María Gilda Carballo
    20 abr 2021

    Apuntando a la verdad, la justicia y la equidad en el uso de la #IA por parte de su empresa

    en Bienvenido al foro

    Los avances en la tecnología de inteligencia artificial (IA) prometen revolucionar nuestro enfoque de la medicina, las finanzas, las operaciones comerciales, los medios de comunicación y más. Pero la investigación ha destacado cómo la tecnología aparentemente "neutral" puede producir resultados preocupantes, incluida la discriminación por raza u otras clases protegidas legalmente. Por ejemplo, los modelos de predicción de COVID-19 pueden ayudar a los sistemas de salud a combatir el virus mediante la asignación eficiente de camas de UCI, ventiladores y otros recursos. Pero como un estudio reciente(el enlace es externo) en el Journal of the American Medical Informatics Association sugiere que, si esos modelos usan datos que reflejan el sesgo racial existente en la prestación de atención médica, la IA que estaba destinada a beneficiar a todos los pacientes puede empeorar las disparidades en la atención médica para las personas de color.

    La pregunta, entonces, es ¿cómo podemos aprovechar los beneficios de la IA sin introducir inadvertidamente sesgos u otros resultados injustos? Afortunadamente, si bien la tecnología sofisticada puede ser nueva, la atención de la FTC a la toma de decisiones automatizada no lo es. La FTC tiene décadas de experiencia en la aplicación de tres leyes importantes para los desarrolladores y usuarios de IA:

    • Sección 5 de la Ley de la FTC. La Ley de la FTC prohíbe las prácticas desleales o engañosas. Eso incluiría la venta o el uso de, por ejemplo, algoritmos con prejuicios raciales.

    • Ley de informes de crédito justos. La FCRA entra en juego en determinadas circunstancias en las que se utiliza un algoritmo para negar a las personas empleo, vivienda, crédito, seguro u otros beneficios.

    • Ley de igualdad de oportunidades crediticias. La ECOA declara ilegal que una empresa utilice un algoritmo sesgado que resulte en discriminación crediticia por motivos de raza, color, religión, nacionalidad, sexo, estado civil, edad o porque una persona recibe asistencia pública.

    Entre otras cosas, la FTC ha utilizado su experiencia con estas leyes para informar sobre análisis de big data y aprendizaje automático ; para realizar una audiencia sobre algoritmos, inteligencia artificial y análisis predictivo ; y emitir orientación empresarial sobre inteligencia artificial y algoritmos . Este trabajo, junto con las acciones de aplicación de la FTC, ofrece lecciones importantes sobre el uso de la IA de manera veraz, justa y equitativa.

    Empiece con la base adecuada. Con su jerga misteriosa (piense en: "aprendizaje automático", "redes neuronales" y "aprendizaje profundo") y su enorme poder de procesamiento de datos, la IA puede parecer casi mágica. Pero no hay nada místico en el punto de partida correcto para la IA: una base sólida. Si a un conjunto de datos le falta información de poblaciones particulares, el uso de esos datos para construir un modelo de IA puede producir resultados injustos o no equitativos para los grupos protegidos legalmente. Desde el principio, piense en formas de mejorar su conjunto de datos, diseñe su modelo para tener en cuenta las brechas de datos y, a la luz de cualquier deficiencia, limite dónde o cómo usa el modelo.

    Tenga cuidado con los resultados discriminatorios. Cada año, la FTC celebra PrivacyCon, un escaparate de los desarrollos de vanguardia en privacidad, seguridad de datos e inteligencia artificial. Durante la PrivacyCon 2020 , los investigadores presentaron trabajos que mostraban que los algoritmos desarrollados con fines benignos, como la asignación de recursos de atención médica y la publicidad, en realidad resultaban en prejuicios raciales. ¿Cómo puede reducir el riesgo de que su empresa se convierta en el ejemplo de una empresa cuyo algoritmo bien intencionado perpetúa la desigualdad racial? Es esencial probar su algoritmo, tanto antes de usarlo como periódicamente después de eso, para asegurarse de que no discrimine por motivos de raza, género u otra clase protegida.

    Adopte la transparencia y la independencia. ¿Quién descubrió el sesgo racial en el algoritmo de atención médica descrito en PrivacyCon 2020 y luego publicado en Science? Investigadores independientes lo detectaron al examinar los datos proporcionados por un gran hospital académico. Es decir, fue por la transparencia de ese hospital y la independencia de los investigadores que salió a la luz el sesgo. A medida que su empresa desarrolla y utiliza IA, piense en formas de adoptar la transparencia y la independencia, por ejemplo, utilizando marcos de transparencia y estándares independientes, realizando y publicando los resultados de auditorías independientes y abriendo sus datos o código fuente a una inspección externa.

    No exagere lo que puede hacer su algoritmo o si puede ofrecer resultados justos o imparciales. Según la Ley de la FTC, sus declaraciones a clientes comerciales y consumidores por igual deben ser veraces, no engañosas y estar respaldadas por pruebas. En la prisa por adoptar una nueva tecnología, tenga cuidado de no prometer demasiado lo que puede ofrecer su algoritmo. Por ejemplo, digamos que un desarrollador de inteligencia artificial les dice a los clientes que su producto proporcionará "decisiones de contratación 100% imparciales", pero el algoritmo se creó con datos que carecían de diversidad racial o de género. El resultado puede ser engaño, discriminación y una acción policial de la FTC.

    Di la verdad sobre cómo usas los datos. En nuestra guía sobre IA el año pasado, aconsejamos a las empresas que tengan cuidado con la forma en que obtienen los datos que impulsan su modelo. Notamos la queja de la FTC contra Facebook , que alegaba que el gigante de las redes sociales engañó a los consumidores diciéndoles que podían optar por el algoritmo de reconocimiento facial de la compañía, cuando en realidad Facebook estaba usando sus fotos de forma predeterminada. La reciente acción de la FTC contra el desarrollador de aplicaciones Everalbumrefuerza ese punto. Según la denuncia, Everalbum usó fotos cargadas por los usuarios de la aplicación para entrenar su algoritmo de reconocimiento facial. La FTC alegó que la compañía engañó a los usuarios sobre su capacidad para controlar la función de reconocimiento facial de la aplicación e hizo tergiversaciones sobre la capacidad de los usuarios de eliminar sus fotos y videos al desactivar la cuenta. Para disuadir futuras violaciones, la orden propuesta requiere que la compañía elimine no solo los datos mal habidos, sino también los modelos o algoritmos de reconocimiento facial desarrollados con las fotos o videos de los usuarios.

    Haz más bien que mal. Para decirlo en los términos más simples, según la Ley de la FTC, una práctica es injusta si causa más daño que bien. Digamos que su algoritmo permitirá a una empresa dirigirse a los consumidores más interesados ​​en comprar su producto. Parece un beneficio sencillo, ¿verdad? Pero digamos que el modelo identifica a esos consumidores considerando la raza, el color, la religión y el sexo, y el resultado es una línea roja digital (similar al caso del Departamento de Vivienda y Desarrollo Urbano contra Facebooken 2019). Si su modelo causa más daño que bien, es decir, en el lenguaje de la Sección 5, si causa o es probable que cause un daño sustancial a los consumidores que no es razonablemente evitable por los consumidores y no compensado por beneficios compensatorios para los consumidores o la competencia, la FTC puede cuestionar el uso de ese modelo como injusto.

    Hágase responsable, o esté preparado para que la FTC lo haga por usted. Como hemos señalado, es importante hacerse responsable del rendimiento de su algoritmo. Nuestras recomendaciones de transparencia e independencia pueden ayudarlo a lograrlo. Pero tenga en cuenta que si no se responsabiliza, la FTC puede hacerlo por usted. Por ejemplo, si su algoritmo da como resultado una discriminación crediticia contra una clase protegida, podría enfrentarse a una queja que alegue violaciones de la Ley FTC y ECOA. Ya sea causado por un algoritmo sesgado o por mala conducta humana de la variedad más prosaica, la FTC toma muy en serio las acusaciones de discriminación crediticia, como lo demuestra su reciente acción contra Bronx Honda .

    A medida que su empresa se lanza al nuevo mundo de la inteligencia artificial, mantenga sus prácticas basadas en los principios establecidos de protección del consumidor de la FTC.




    www.ftc.gov
    Aiming for truth, fairness, and equity in your company’s use of AI
    Advances in artificial intelligence (AI) technology promise to revolutionize our approach to medicine, finance, business operations, media, and more.

    0 comentarios
    0
    0 comentarios

    2021, UNESCO Montevideo. Todos los derechos reservados.

    dMesa de trabajo 4.png
    • Facebook
    • Twitter

    Contacto: a.abella@unesco.org - Agustín Abella