En ciencia ficción, la tecnología de reconocimiento facial es un sello distintivo de una sociedad distópica. La verdad de cómo se creó y cómo se usa hoy en día es igualmente extraña.
En un nuevo estudio , los investigadores realizan una encuesta histórica de más de 100 conjuntos de datos utilizados para entrenar sistemas de reconocimiento facial compilados durante los últimos 43 años. La revelación más amplia es que, a medida que aumentaba la necesidad de más datos (es decir, fotos), los investigadores dejaron de molestarse en pedir el consentimiento de las personas en las fotos que usaban como datos.
Las investigadoras Deborah Raji de Mozilla y Genevieve Fried de AI Now publicaron el estudio sobre el servicio de distribución gratuita de la Universidad de Cornell, arXiv.org . El MIT Technology Review publicó su análisis del artículo el viernes, describiéndolo como "el estudio más grande jamás realizado sobre datos de reconocimiento facial" que "muestra cuánto el aumento del aprendizaje profundo ha impulsado la pérdida de privacidad".
Dentro de los gráficos del estudio sobre la evolución de los conjuntos de datos de reconocimiento facial, hay momentos en la historia y hechos sobre el desarrollo de esta tecnología que son reveladores. Muestran cómo la naturaleza del reconocimiento facial es que es una tecnología defectuosa cuando se aplica a escenarios del mundo real, creada con el propósito expreso de expandir el estado de vigilancia, con el efecto de degradar nuestra privacidad.
Aquí hay 9 conclusiones aterradoras y sorprendentes de 43 años de investigación en reconocimiento facial.
1. El abismo entre el rendimiento del reconocimiento facial en entornos académicos y las aplicaciones del mundo real es enorme.
Una de las razones que dan los investigadores para emprender su estudio es comprender por qué los sistemas de reconocimiento facial que funcionan con una precisión cercana al 100 por ciento en las pruebas son profundamente defectuosos cuando se aplican en el mundo real. Por ejemplo, dicen, la MTA de la ciudad de Nueva York detuvo un piloto de reconocimiento facial después de que tuvo una tasa de error del 100 por ciento. El reconocimiento facial, que ha demostrado ser menos preciso en rostros negros y morenos, llevó recientemente al arresto de tres hombres negros que fueron identificados incorrectamente por el técnico.
2. El Departamento de Defensa es responsable del auge original de esta tecnología.
Aunque los esfuerzos para desarrollar el reconocimiento facial comenzaron en entornos académicos, despegaron en 1996 cuando el DoD y el Instituto Nacional de Estándares y Tecnología (NIST) asignaron $ 6.5 millones para crear el mayor conjunto de datos hasta la fecha. El gobierno se interesó en esta área debido a su potencial de vigilancia que no requería que las personas participaran activamente, a diferencia de las huellas dactilares.
3. Las primeras fotos utilizadas para crear datos de reconocimiento facial procedían de sesiones de retratos, lo que generaba grandes defectos.
Parece casi pintoresco, pero antes de mediados de la década de 2000, la forma en que los investigadores acumulaban bases de datos era haciendo que las personas se sentaran para la configuración de retratos. Debido a que algunas de las tecnologías fundamentales de reconocimiento facial en la actualidad provienen de estos conjuntos de datos, los defectos de la técnica del retrato resuenan. Es decir, un conjunto no diverso de participantes y escenarios organizados que no reflejan con precisión las condiciones del mundo real.
4. Cuando las sesiones de retratos no eran suficientes, los investigadores empezaron a rastrear Google y dejaron de pedir consentimiento.
Sí, cuando los investigadores querían expandir los conjuntos de datos más allá de los retratos, esto es literalmente lo que sucedió. Un conjunto de datos de 2007 llamado Caras etiquetadas en la naturaleza raspó Google, Flickr, YouTube y otros repositorios de fotos en línea. Eso incluía fotos de niños. Si bien esto llevó a una mayor variedad de fotos, también descartó los derechos de privacidad de los sujetos.
"A cambio de conjuntos de datos más realistas y diversos, también hubo una pérdida de control, ya que se volvió inmanejable obtener el consentimiento del sujeto, registrar las distribuciones demográficas, mantener la calidad del conjunto de datos y estandarizar atributos como la resolución de imágenes en conjuntos de datos de Internet", dice el documento. lee.
5. El siguiente boom del reconocimiento facial vino de Facebook.
Los investigadores citan un punto de inflexión en el reconocimiento facial cuando Facebook reveló la creación de su base de datos DeepFace en 2014. Facebook mostró cómo la colección de millones de fotos podría crear redes neuronales que eran mucho mejores en tareas de reconocimiento facial que los sistemas anteriores, lo que hace que el aprendizaje profundo sea un piedra angular del reconocimiento facial moderno.
6. Sorpresa sorpresa, la masiva empresa de reconocimiento facial de Facebook violó la privacidad de los usuarios.
Desde entonces, Facebook ha sido multado por la FTC y pagó un acuerdo al estado de Illinois por usar las fotos que los usuarios subieron a Facebook para permitir su reconocimiento facial sin obtener el consentimiento afirmativo de los usuarios. La forma en que DeepFace se manifestó fue a través de "Sugerencias de etiquetas", una función que podía sugerir a la persona en su foto a la que podría querer etiquetar. Aceptar o rechazar etiquetas hizo que los sistemas de Facebook fueran más inteligentes. Las sugerencias de etiquetas se excluyeron, lo que significaba que participar en esta tecnología era la opción predeterminada.
7. Se ha entrenado el reconocimiento facial en los rostros de 17,7 millones de personas, y eso solo se encuentra en los conjuntos de datos públicos.
En realidad, no conocemos el número o la identidad de las personas cuyas fotos los convirtieron en participantes involuntarios del desarrollo de la tecnología de reconocimiento facial.
8. La automatización en el reconocimiento facial ha dado lugar a sistemas de etiquetado ofensivos y representación desigual.
Los sistemas de reconocimiento facial han evolucionado más allá de la identificación de un rostro o una persona. También pueden etiquetar a las personas y sus atributos de manera ofensiva.
"Estas etiquetas incluyen las etiquetas problemáticas y potencialmente insultantes con respecto al tamaño ('regordete', 'papada') o características raciales inapropiadas como 'Piel pálida', 'Nariz puntiaguda', 'Ojos estrechos' para sujetos asiáticos y 'Nariz grande' y 'Labios grandes' para muchos sujetos negros ", dice el periódico. "Además, existe la extraña inclusión de conceptos, como 'bolsas debajo de los ojos', 'sombra de las 5 en punto' y etiquetas objetivamente imposibles de definir consistentemente, como 'atractivo'".
Los rostros considerados "occidentales" se convirtieron en los predeterminados en los conjuntos de entrenamiento. Y otros conjuntos de datos creados expresamente para aumentar la diversidad eran problemáticos en sí mismos: el propósito de uno de esos sistemas era "entrenar algoritmos de reconocimiento facial no sesgados y conscientes de la discriminación", pero los investigadores señalan que solo "divide [d] los orígenes étnicos humanos en solo tres categorías. "
Estas fallas van más allá de ser ofensivas. La investigación ha demostrado que la discriminación en la IA puede reforzar la discriminación en el mundo real.
9. Las aplicaciones de la tecnología de reconocimiento facial en la actualidad van desde la vigilancia gubernamental hasta la focalización de anuncios.
El reconocimiento facial se ha mantenido fiel a sus raíces y se ha expandido más allá de lo que sus creadores en la década de 1970 podían imaginar.
"Podemos ver en el contexto histórico que el gobierno promovió y apoyó esta tecnología desde el principio con el propósito de permitir la investigación y vigilancia criminal", escriben los autores. Por ejemplo, Amazon ya ha vendido su problemática tecnología Rekognition a un número incalculable de departamentos de policía.
En el otro extremo del espectro, algunos conjuntos de capacitación prometen que pueden ayudar a desarrollar sistemas para analizar la opinión de los compradores y rastrear y comprender mejor a los clientes potenciales.
¿Qué es más distópico: el estado de vigilancia o una máquina publicitaria capitalista que todo lo sabe? Tú decides.
Me parece bien la alerta al mal uso de la tecnología, pero el reconocimiento facial no es el "terrorífico". Lo terrorifico es la cultura de los gobiernos. Sin embargo esta cultura centralista y manipuladora ya existía desde mucho antes que existiera la inteligencia artificial. Por lo tanto no me parece correcto afirmar que "el aumento del deep learning ha impulsado la pérdida de privacidad". Es la cultura descontrolada de los gobiernos totalitarios o democráticos con prácticas totalitarias el factor que agrede la privacidad, no el deep learning.