Cómo son las recomendaciones éticas de la Unesco sobre inteligencia artificial

Hablamos con Gabriela Ramos, Subdirectora General de Ciencias Sociales y Humanas de la UNESCO, sobre el estudio que publicó el organismo


Cuando en los años 90 la preocupación de los consumidores por el impacto ambiental de la industria del atún en el medioambiente alcanzó un punto máximo aparecieron las etiquetas de “Dolphin Safe” o alimento “libre de delfines”. Algo similar pasó en la última década con las recomendaciones éticas en el ámbito de la inteligencia artificial.

IBM tiene sus principios éticos, Microsoft, Google y Facebook también. Esto, por supuesto, no ha impedido realmente que sucedieran atropellos éticos, como lo que sucedió con la escandalosa salida de Timnit Gebru, experta en inteligencia artificial, cuya labor interna era investigar las maneras en que los algoritmos pueden causar daño. De igual modo que hace muchos años se denuncia que las etiquetas para salvar a los delfines de las prácticas abusivas de la industria del atún no han servido de mucho, parece que cuando se trata de estos códigos hay mucha ética y pocas nueces, y lo que terminan diciendo es “confiá, somos re éticos”.


Por eso me llamó especialmente la atención cuando me enteré de la inminente publicación de una serie de recomendaciones éticas en torno a la inteligencia artificial por parte de la UNESCO. A raíz de lo insípidas que las recomendaciones éticas corporativas muchas veces resultan, algo que ya en 2018 había denunciado el Instituto AI Now, abordé la lectura con escepticismo, aunque también con algo de expectativas.

En contraste con estos gestos de relaciones públicas de las empresas de tecnología, cuyos esfuerzos de autorregulación siempre levantan sospechas, la publicación de la UNESCO apela directamente a los Estados y busca poner de manifiesto los puntos en los que conviene detenerse al evaluar el panorama tecnológico.

Apenas un par de días antes de la publicación, tuve oportunidad de conversar con Gabriela Ramos, Subdirectora General de Ciencias Sociales y Humanas de la UNESCO. No solo la conversación pudo estirarse sino que creo que ella supo entender de dónde venía mi escepticismo inicial. Me alegró especialmente notar que, como en una meticulosa lista de temas, en la recomendación se tildan prácticamente todos los ítems que desde hace tanto tiempo se vienen empujando. El trabajo final, aunque admiten que queda abierto a mejoras, es un gran punto de partida para quien quiera interiorizarse en las problemáticas vigentes que presenta la inteligencia artificial.


Esperablemente, lo primero que le pregunté fue en qué se diferenciaba esta recomendación de las preexistentes.

La principal diferencia que señaló Ramos fue la de la naturaleza de la institución. Dado que las leyes y regulaciones son, a fin de cuentas, producidas por los Estados, el hecho de que la recomendación actual tenga consenso de 193 países implica una fortaleza mayor a la hora de garantizar la implementación efectiva de las propuestas. Sin embargo, observó, entre los países participantes existe una gran diversidad de marcos regulatorios, y no todos ellos favorecen la intervención estatal. Alemania y Dinamarca, por ejemplo, “tienen marcos muy sólidos de protección a la privacidad, de indicaciones de cómo se deben desarrollar las tecnologías, de controles a sesgos y de auditorías a los algoritmos”. En cambio, países como Estados Unidos o el Reino Unido todavía tienen una posición más liberal, aunque este último “está avanzando en su regulación”, aunque algunos de los cambios propuestos levantan serias preocupaciones.

Una regulación efectiva

En torno al asunto de la regulación y autorregulación, para Ramos lo más importante no es qué tan profundamente se regule, sino que se regule efectivamente. La agilidad y el dinamismo de las nuevas tecnologías impiden que se pueda codificar hasta el último detalle de su desarrollo; el punto está, más bien, en que exista un marco efectivo para evitar posibles impactos indeseables y graves. Lo importante es cumplir a rajatabla una serie de pautas generales pero intransigibles: el desarrollo de IA, así como las decisiones tomadas por sistemas de inteligencia artificial, deben ser:

  • transparentes (explicables, tanto en términos algorítmicos como de datos utilizados)

  • inclusivas (evitar sesgos tanto en los resultados como en los desarrollos)

  • responsables (en última instancia, para toda decisión y/o sistema, debe haber rendición de cuentas humana).

Asimismo, Ramos también destacó el singular modo de trabajo de la UNESCO. Para llevar a cabo la redacción de la recomendación, se hizo una serie de consultas globales y regionales, de las cuales surgieron recomendaciones puntuales que en un primer momento no habían sido observadas. Por ejemplo, de las consultas regionales en África, Asia y Europa surgieron gran parte de las observaciones sobre género y medio ambiente, lo cual también explica lo exhaustivo de esta nueva recomendación.

Las recomendaciones, recordó Ramos, tratan objetivos y visiones generales. Aunque esta sea “muy concreta”, queda un trabajo posterior con países miembros “para ver qué significan todas estas previsiones en términos de acciones concretas en sus reglamentaciones”.

El objetivo es que la recomendación funcione como un sello de calidad: que desarrolladores y países puedan utilizar la recomendación y el instrumento de impacto ético de la UNESCO para certificar que siguen parámetros éticos globalmente consensuados. Volviendo al ejemplo de los delfines y el atún, la cuestión termina reduciéndose a qué tan efectivo sea el cumplimiento y las auditorías que lo garantizan.

El control de armas autónomas

Al leer la recomendación no pude evitar notar algunos detalles especialmente relevantes. En primer lugar, noté que no existía mención o condena explícita de las armas autónomas (o “robots asesinos”, como los llama la campaña en su contra), un tema que hace tiempo está en agenda. Por otro lado, noté que si bien en la sección de impacto ambiental se mencionaban los efectos contaminantes de la extracción de materiales, no había una referencia explícita a las condiciones inhumanas de trabajo que aún existen, por ejemplo en la extracción de coltán en la República Democrática del Congo.

Sobre las armas autónomas, contestó que no había mención explícita de ellas porque, aunque algunos países estaban enfocados en que se tratara el tema, la mayoría se posicionó en contra porque el control de armas no forma parte del mandato de la UNESCO. Sin embargo, continuó, el tema quedó tratado implícitamente, porque en uno de los artículos de la recomendación se prohíbe el desarrollo de herramientas autónomas que tomen decisiones “irreversibles o de vida o muerte”. En esos casos, debe haber control y responsabilidad humana. Las armas autónomas, por tanto, quedarían prohibidas.

Sobre el problema de las condiciones de explotación para la extracción de materiales, el punto en el que comienza cualquier desarrollo tecnológico, observó que quedaba abarcado al comienzo de la recomendación, donde se menciona, como parte de su alcance, no sólo al ciclo que va desde la investigación al desarrollo y la implementación, sino también a la extracción de materiales para la fabricación de hardware.

Por último, le consulté acerca de la inclusión. Observó que hoy la dinámica de producción es poco inclusiva, que son sólo los pocos “grandes países y grandes plataformas” quienes tienen herramientas y recursos para la producción de IA. Para volverla más inclusiva, es necesario modificar ese modelo.


Un análisis que no presupone una solución única

Hablamos de la importancia de la interdisciplina para tratar este tipo de problemas. Las decisiones sobre IA no son sólo asuntos técnicos. Su desarrollo, y las problemáticas que acarrea, deben ser entendidas integralmente. El equipo que redactó la recomendación fue “multidisciplinario, de múltiples regiones y perspectivas”, formado por 24 “filósofos y psicólogos, tecnólogos y economistas”, de países como Marruecos, Camerún, Ruanda, Letonia, Ghana, que rara vez forman parte de la discusión, acaparada por personas de países desarrollados. Ramos recuerda con cariño que durante alguna reunión se detuvo a contemplar la magnitud del esfuerzo y pensar “parece como que estamos filosofando”.

Para Ramos fue a partir del debate, y especialmente del desacuerdo y la diversidad de posturas, que el documento logró su solidez y completud, y su expresión en resultados de “inclusión, diversidad, respeto y justicia”.

Es en la riqueza de la diversidad, observa Ramos, que el desarrollo de la IA podrá tener en cuenta las diferencias socioeconómicas, lingüísticas y culturales en términos de para qué la necesitan y qué pueden hacer con ella. Es necesario romper con el “one size fits all” o la idea de solución única para todo el mundo, porque el contexto importa. De ahí su insistencia en la necesidad de incorporar a las ciencias sociales y humanas, además de las perspectivas técnicas, y en un simpático gesto cuando le conté que hace muchos años trabajo en filosofía de la tecnología e inteligencia artificial, sonrió diciendo “pues espero que sean más filósofos, porque necesitamos más sabiduría”.


Terminó por aclarar que la declaración no está en contra de la tecnología ni la inteligencia artificial. A ella, personalmente, le “parece fascinante” la capacidad de usar tecnología para solucionar problemas graves, como la mala distribución de los alimentos producidos, que conduce al 40% de desperdicio, o la urgente búsqueda de soluciones para la crisis climática.

No hay código ético que alcance sin una regulación efectiva. Esta responsabilidad, por supuesto, no es rol de la UNESCO sino de los Estados que forman parte de la ONU. Ahora que el documento fue publicado, y muy bien recibido, la pelota queda del lado de quienes deben observar sus recomendaciones en pos de un genuino interés por evitar hacer daño, y ya no por la impaciencia de agregar orgullosamente una etiqueta en un sitio web.


_____________________


Nota por Valentin Muro para La Nación. Nota original disponible en https://www.lanacion.com.ar/tecnologia/como-son-las-recomendaciones-eticas-de-la-unesco-sobre-inteligencia-artificial-nid13122021/