En el paper publicado recientemente, investigadores del Bekman Klein Center de Harvard analizan la robustez y rigurosidad de las investigaciones en machine learning (ML) adversarial en la práctica.
En el documento destacan que ”Los avances en las técnicas de aprendizaje por máquina (ML) han permitido que los sistemas de visión computarizada como el reconocimiento facial y de personas erosionen las expectativas de privacidad y anonimato en línea y fuera de ella. Estos sistemas ya se están empleando para rastrear a los disidentes e identificar a los manifestantes. Los ataques adversariales son una forma de combatir la vigilancia. Lamentablemente, los limitados ataques de ML adversarial que existen no están todavía preparados para el "mundo real". En este documento, se analiza la adecuación y la representatividad de las pruebas de dominio físico para varios ataques de ML adversarial contra sistemas de visión computarizada que involucran a seres humanos. Muchos papers se dan a conocer como investigaciones sobre machine learning adversarial en el campo práctico o en el “mundo real" , reciben una respuesta resonante en los medios de comunicación. Sin embargo, en la práctica, encontramos que las pruebas físicas o del mundo real eran mínimas, los documentos proporcionaban pocos detalles sobre los sujetos de las pruebas, y las pruebas se realizaban a menudo como una idea complementaria o como una demostración”
https://arxiv.org/pdf/2012.02048.pdf?utm_source=emBlue&utm_medium=email&utm_campaign=NL%20Diciembre%202020&utm_content=43%20NL--%C3%89tica%20de%20IA,%20pedidos%20de%20regulaci%C3%B3n%20y%20machine%20learning&utm_term=multiple--7--none--80-90--ENVIO%20SIMPLE