La inteligencia artificial (IA) es lo mejor que nos puede pasar en la vida.
Nos ayuda a leer nuestros correos electrónicos, completar nuestras oraciones, obtener direcciones, hacer compras en línea, obtener recomendaciones de restaurantes y entretenimiento, e incluso hacer que sea más fácil conectarnos con viejos amigos o hacer nuevos en las redes sociales. La IA no solo se está capacitando en muchos trabajos humanos; también está tomando decisiones por nosotros.
La pregunta es si se puede confiar en estas decisiones. Para dar más detalles, ¿el reclutamiento asistido por IA facilita o rechaza la selección de candidatos adecuada? ¿La coincidencia de Tinder está hecha en el cielo o por el algoritmo? ¿Quiénes son enviados a la cárcel, criminales o inocentes predichos por el sesgo de la IA?
Como seres humanos, procedemos de una amplia gama de antecedentes sociopolíticos, raciales y culturales. La idea de lo que es correcto, y la mera cuestión de la moralidad en sí, cambia según el contexto. ¿Cómo decide la IA qué es lo correcto y para quién? Ante la decisión de salvar al conductor de un coche inteligente o al peatón, ¿a quién elige la IA a bordo? ¿Cómo llega a esta decisión?
Una cuestión de ética
Antes de que la IA pueda pensar por los humanos, los humanos deben pensar por la IA. Esencialmente, la ética de la tecnología de IA es la encarnación de la ética de sus creadores. Y aquí es donde comienza el “dilema ético de la IA”.
Sesgo humano
La IA es buena y mala, pero la verdad es que la preocupación subyacente que domina cada invención o innovación es el sesgo humano. Hay suficiente evidencia que apunta en esta dirección, siendo Apple la más reciente y destacada. En 2019, la nueva tarjeta de crédito de la compañía fue acusada de ofrecer a algunas mujeres un límite más bajo a pesar de que tenían mejores puntajes crediticios que sus cónyuges masculinos. El sesgo fue tan intenso que el cofundador de Apple, Steve Wozniak, señaló que su esposa obtuvo un límite de crédito más bajo que él a pesar de que “no tenían cuentas bancarias o de tarjetas de crédito separadas ni activos separados”.
La IA está abierta a sesgos porque toma decisiones basadas en la información de sus creadores humanos, y esta información contiene sesgos. Muchos de los creadores son hombres que crecieron en el mundo occidental, lo que puede predisponerlos a comunidades y geografías individuales. Ha habido suficiente debate en torno a COMPAS (Perfiles de gestión de delincuentes correccionales para sanciones alternativas), un algoritmo que los tribunales de los Estados Unidos diseñaron para anticipar la probabilidad de reincidentes. El algoritmo indicó el doble de falsos positivos para los delincuentes negros (45%) que para los delincuentes blancos (23%).
Basura dentro basura fuera
TechTarget define el concepto de “basura adentro, basura afuera” de esta manera: “La calidad de la entrada determina la calidad de la salida”. Aparte de los humanos, el sesgo también puede impregnar la inteligencia de una máquina. Después de todo, como señaló B Nalini, son los humanos quienes enmarcan el problema, entrenan el modelo y despliegan el sistema. Incluso con datos no sesgados, no hay garantía de precisión, ya que el mismo proceso mediante el cual los modelos de aprendizaje automático logran esto puede producir resultados sesgados.
Enseñando la moralidad de la IA
En un artículo de 2001, el inventor y futurista Raymond Kurzweil afirmó que nuestra visión del progreso es lineal. Cuanto más nos adaptamos al cambio, la tasa de cambio aumenta exponencialmente. Podemos esperar ver 20.000 años de progreso en las décadas que abarcan el siglo XXI. Sin embargo, aunque reconocemos el crecimiento exponencial, también debemos aceptar que la IA es una tecnología relativamente nueva. La palabra en sí nació hace apenas 60 años, lo que significa que estamos más cerca del principio o tal vez incluso en el medio en lugar del final.
La IA es solo un niño pequeño, que aprende las diferencias entre el bien y el mal moral y hereda los prejuicios de sus creadores. Todavía lucha por hacer mucho más que detectar patrones estadísticos en grandes conjuntos de datos. La comprensión y la inteligencia humanas se extienden mucho más allá de las ideas estáticas del bien y el mal, y las reglas mismas cambian según los contextos socioculturales e históricos. Si, como seres humanos, todavía estamos luchando con la moralidad, es bastante presuntuoso de nuestra parte esperar que una máquina, que hemos creado, nos eclipse en este sentido.
Como señaló Harvard Business Review, hay dos conclusiones. El primero implica reconocer cómo la IA puede ayudar a mejorar el proceso de toma de decisiones humana en sí misma al predecir los resultados de los datos disponibles mientras se ignoran las variables que llevan a los tomadores de decisiones humanos a generalizar y segregar sin siquiera darse cuenta de sus sesgos inherentes. El segundo alude a una necesidad más complicada de definir y medir técnicamente la siempre fugaz idea de “justicia”.
Conclusión
El sesgo es tan fundamental como el aire que respiramos o el entorno en el que vivimos, y prevalece entre todos nosotros, ya sea como individuos o como comunidad. En este punto de la historia de la humanidad, el mundo se está preparando para industrializar la tecnología de IA y desplegarla más ampliamente. Por lo tanto, abordar los sesgos “inherentes” de la IA en este momento se vuelve excepcionalmente crítico.
Así como una mascota refleja ciegamente las instrucciones y la personalidad de su entrenador, la IA refleja la entrada de sus creadores, sesgada o no. Por lo tanto, la raíz del problema va mucho más allá de la ética de la IA, pero se convierte en una cuestión de moralidad humana y el concepto de “justicia” en sí mismo y cómo se puede definir y medir.