Una Propuesta para Agentes Pedagógicos Morales Artificiales

Por

Paulo Roberto Córdova ( paulo.cordova@ifsc.edu.br )

Rosa Maria Vicari ( rosa@inf.ufrgs.br )

Contexto

El creciente y rápido avance en el campo de la inteligencia artificial (IA) ha planteado diferentes preocupaciones, por ejemplo, los impactos de su aplicación cada vez más generalizada en una amplia variedad de áreas. Una posible razón de esta rápida expansión de la IA, según Cervantes et al (2019), es que tiene como objetivo delegar parte de su poder de decisión en agentes artificiales (los agentes artificiales son una forma de programas de IA). Los agentes pedagógicos se denominan así porque toman decisiones basadas en estrategias pedagógicas.

A medida que la IA continúa proliferando en varias áreas de la vida, se hace evidente que la sociedad necesita pensar en el impacto que tendrá. La IA debe demostrar confiabilidad, de modo que las personas puedan confiar en que es seguro coexistir con ella. Para ello, es necesario asegurarse de que estas tecnologías estén alineadas con nuestros valores morales y principios éticos.

Así, los investigadores han examinado cómo implementar la inteligencia moral, enfrentándose a una amplia gama de desafíos como: cómo traducir los principios éticos en modelos computacionales, cómo evitar el sesgo de datos que implica la replicación de los prejuicios humanos, cómo hacer responsables a los sistemas inteligentes. para su decisión y elección, etc. Estos esfuerzos de investigación se organizan bajo el término principal denominado alineación de valores (VA).

En este contexto, la AV se ha convertido en un tema importante en muchas áreas porque no existen respuestas consensuadas capaces de resolver definitivamente todas las preguntas que se le plantean. En el contexto educativo, también lo es, por lo que proponemos un modelo de alineación de valores en el contexto educativo utilizando un enfoque de arriba hacia abajo.

El problema de la alineación de valores y sus desafíos

La alineación de valores en IA se puede definir como el conjunto de esfuerzos para construir sistemas que se adhieran a los valores éticos humanos (Aliman y Kester, 2019). Es un área para la que es clara la necesidad de investigaciones y soluciones, como mostraremos a lo largo. Esta necesidad, a su vez, proviene del hecho de que, al estar cada vez más involucrados en las relaciones sociales e interactuar con los humanos, es casi inevitable que se presenten situaciones en las que los agentes artificiales deberán lidiar con dilemas éticos en sus decisiones. Además, la ética se ha convertido en un tema crucial en el ámbito tecnológico (Costa y Coelho, 2019).

Sin embargo, a pesar de los notables esfuerzos para abordar el llamado problema de AV, todavía estamos lejos de un consenso sobre las mejores soluciones. Para demostrar esto, describiremos algunos enfoques para AV, categorizando los agentes morales artificiales (AMA) de acuerdo con la clasificación propuesta por Allen et al (2005), a saber: enfoques de arriba hacia abajo, que se basan en representaciones lógicas de teorías éticas tales ética deontológica y utilitarista; enfoques de abajo hacia arriba, que hacen uso de mecanismos de aprendizaje para orientar sus comportamientos y; enfoques híbridos, en los que se utilizan simultáneamente enfoques de arriba hacia abajo y de abajo hacia arriba.

En cuanto a los enfoques de arriba hacia abajo, en los últimos años se ha propuesto el uso de estructuras deontológicas, utilitarias, la doctrina del doble efecto y variantes de estos marcos. Las representaciones lógicas, funciones de utilidad puras y estructuradas para soportar enfoques multe objetivos, se han observado con frecuencia para implementarlas. Los enfoques de arriba hacia abajo todavía enfrentan muchos desafíos, como: instanciación perversa, complejidad temporal y cambio de contexto en la toma de decisiones y la toma de decisiones (Aliman, Kester y Werkhoven, 2019; Thornton et al, 2017; Vamplew et al, 2017; Dehghani et al. 2008; Anderson y Anderson 2008; Cervantes et al, 2019).

Los agentes basados en enfoques de abajo hacia arriba, como se mencionó anteriormente, hacen uso de mecanismos de aprendizaje para mejorar su proceso de toma de decisiones y elección y, por lo tanto, su comportamiento ético. En este sentido, el aprendizaje por refuerzo y el aprendizaje por refuerzo inverso se han utilizado con mayor frecuencia para implementar este enfoque. En cuanto a sus desafíos, se pueden destacar el sesgo de los datos, los problemas de generalización, evitando falacias naturalistas y representaciones de normas complicadas (Arnold, Kasenberg y Scheutz, 2017; Kima, Donaldson y Hooker, 2019; Cervantes et al, 2019).

Finalmente, en los enfoques híbridos, comúnmente se pueden ver propuestas que presentan mecanismos de aprendizaje guiados por reglas o restringidos por ellas en sus procesos de aprendizaje (Arnold, Kasenberg, Scheutz, 2017; Wallach et al. 2010). Además, también es posible encontrar propuestas para validar principios éticos mediante la observación empírica (Kima, Donaldsonb y Hooker, 2019).

En cuanto a sus desafíos, dado que los enfoques híbridos utilizan tanto marcos éticos como mecanismos de aprendizaje, se enfrenta al mismo conjunto de desafíos que los enfoques de arriba hacia abajo y de abajo hacia arriba. Además, identificar y combinar diferentes marcos éticos, métodos de aprendizaje automático e incluso enfoques neuropsicológicos se encuentran entre algunas de las tareas desafiantes abordadas por los investigadores (Thornton et al, 2017).

Como se puede ver, hay muchas preguntas y cuestiones relacionadas con el problema de VA. Responderlas parece crucial para dar el siguiente paso hacia el futuro de la IA (¿Cuál?).

Una propuesta de alineación de valores para el contexto educativo

Las cuestiones éticas son siempre complejas, principalmente por su dependencia temporal, cultural y contextual, además de la subjetividad de los juicios y múltiples puntos de vista. La falta de acuerdo entre los filósofos morales sobre qué teoría de la ética debe seguirse, también puede considerarse un obstáculo para el desarrollo de la ética de la máquina (Bostrom 2014; Brundage 2014).

Por otro lado, identificar los marcos éticos para guiar el comportamiento humano sigue siendo importante y ha sido uno de los temas principales del pensamiento filosófico (Vamplew et al, 2017). Cuando se trata del contexto educativo, debe quedar claro qué principios y marcos éticos impulsan el comportamiento de las personas, ya que existen serias preocupaciones con respecto al conductismo en el aula.

Sin embargo, no es la intención de este trabajo definir qué principios o marcos éticos deben implementarse en los contextos educativos, sino defender la necesidad de tenerlos. Esta necesidad, a su vez, es tan cierta para los agentes humanos como para los artificiales.

Los sistemas inteligentes están cada vez más presentes en nuestras vidas y no es diferente en las aulas. Los agentes pedagógicos, por ejemplo, por sus propiedades de autonomía, habilidad social, persistencia, capacidad para aprender y ser representados por personajes, son capaces de apoyar los procesos de enseñanza-aprendizaje de muchas formas diferentes (Giraffa, Móra y Viccari, 1999). Por lo tanto, las preocupaciones éticas en la IA deben tenerse en cuenta en el aula al igual que en cualquier otro entorno.

Así, proponemos un modelo de Agente Pedagógico Moral Artificial (AMPA), similar a los Agentes Morales Artificiales (AMA), pero enfocado en cuestiones pedagógicas. Dichos agentes pedagógicos deben estructurarse en un enfoque de arriba hacia abajo, de modo que puedan guiarse por algún marco ético, como el deontológico o el utilitarismo.

Por el momento, desaconsejamos el enfoque ascendente o híbrido del contexto educativo, especialmente cuando se aplica a los procesos de enseñanza-aprendizaje. Eso se debe a que existen problemas como el sesgo de datos y la falacia naturalista que podrían representar riesgos innecesarios para otros actores del proceso. Además, a diferencia de los sistemas adaptativos que utilizan el aprendizaje automático (ML) para personalizar los procesos de enseñanza (Daniel, Cano y Cervera, 2015), los agentes morales que utilizan este recurso podrían aprender comportamientos poco éticos y reprobables mientras observan el comportamiento de los estudiantes (Arnold, Kasenberg , Scheutz, 2017).

Finalmente, los agentes pedagógicos morales artificiales son agentes pedagógicos capaces de afrontar dilemas éticos cuando sea necesario. La función principal de los AMPA sigue siendo la de apoyar los procesos de enseñanza-

aprendizaje, actuando de forma autónoma y tomando decisiones para lograr su objetivo principal.

Sin embargo, un AMPA puede encontrarse con un dilema ético, es decir, una situación en la que no hay una decisión satisfactoria y, por lo tanto, una toma de decisiones anulará un principio moral (Aroskar, 1980). Según Cervantes et al (2019), existen dos situaciones no excluyentes donde pueden ocurrir conflictos éticos: dentro de un agente, cuando sus normas éticas están en conflicto; y, entre dos agentes, cuando divergen sobre cuál es la decisión ética adecuada. Esto último puede implicar tanto una interacción entre dos agentes artificiales como una interacción entre un agente artificial y un ser humano.

Por lo tanto, los AMPA deben poder lidiar con decisiones morales para evitar que el comportamiento indeseable y poco ético del sistema mejore su confiabilidad o para orientar a los maestros y estudiantes con respecto a los valores morales y el comportamiento ético o ambos. Estas características pueden ser útiles en muchos enfoques de enseñanza, como el aprendizaje cooperativo, los juegos serios, el aprendizaje basado en problemas, los sistemas de tutores inteligentes, etc.

Referencias

1. Anderson, M., & Anderson, S. L.: Ethical healthcare agents. In M. Sordo, S. Vaidya, & L. C. Jain (Eds.), Advanced computational intelligence paradigms in healthcare-3. 233–257. Springer: Berlin (2008).

2. Aliman, N. M. and Kester, L.: Requisite variety in ethical utility functions for AI value alignment. In: Workshop on Artificial Intelligence Safety 2019, vol. 2419. CEUR-WS, Macao (2019). 3. Aliman, N. M., Kester, L., Werkhoven, P.: XR for Augmented Utilitarianism. In: IEEE International Conference on Artificial Intelligence and Virtual Reality 2019, 283 – 285. IEEE, San Diego (2019).

4. Allen, C., Smit, I, Wallach, W.: Artificial morality: Top-down, bottom-up and hybrid approaches. Ethics and Information Technology, 7(3), 149 – 155 (2005).

5. Arnold, T., Kasenberg, D., Scheutz, M.: Value alignment or misalignment-what will keep systems accountable?. In: AAAI Workshop on AI, Ethics, and Society 2017, AAAI Press, Palo Alto (2017).

6. Bostrom, N. Superintelligence: Paths, dangers, strategies. Oxford University Press: Oxford (2014).

7. Brundage, M.: Limitations and risks of machine ethics. Journal of Experimental & Theoretical Artificial Intelligence, 26(3), 355–372(2014).

8. Cervantes, J. A. et al.: Artificial Moral Agents: A Survey of the Current Status. Science and Engineering Ethics 26(2), 501 – 532 (2019).

9. Daniel, J., Cano, V., Cervera, M., G.: The Future of MOOCs: Adaptive Learning or Business Model? Revista de Universidad y Sociedad del Conocimiento, 12(1), 64 – 73 (2015).

10. 2018, vol.18, 60 – 66. ACM, New York (2018).

11. Kim, T. W., Donaldson, T., Hooker, J.: Grounding Value Alignment with Ethical Principles. arXiv preprint (2019).

12. Giraffa, L, Móra, M., Viccari, R.,: Modelling an interactive ITS using a MAS approach: from design to pedagogical evaluation. In: IEEE Third International Conference on Computational Intelligence and Multimedia Applications 1999, vol.3. IEEE, New Delhi (1999). 13. Thornton, S. M., et al.: Incorporating Ethical Considerations Into Automated Vehicle Control. In: IEEE Transactions on Intelligent Transportation Systems 2017, vol. 18, pp. 1429 – 1439. IEEE (2019).

14. Vamplew, P.: Human-aligned artificial intelligence is a multi-objective problem. Ethics and Information Technology 20, pp. 27 – 40 (2018).

15. Wallach, W. Robot minds and human ethics: The need for a comprehensive model of moral decision making. Ethics and Information Technology, 12(3), 243–250 (2010).

16. Costa, A. R., Coelho, H. Interactional Moral Systems: A Model of Social Mechanisms for the Moral Regulation of Exchange Processes in Agent Societies, IEEE Transactions on Computational Social Systems, Volume 6, Nº 4, pp. 778-796, 2019.