Acceder
dMesa de trabajo 4.png
  • Inicio

  • El proyecto

    • Sobre el proyecto
  • Repositorio digital

  • Auditorio

  • Observatorio de ética

  • Contenidos

    • Webinars y eventos
    • Blog
  • More

    Use tab to navigate through the menu items.
    Para ver esto en acción, dirígete a tu sitio ya publicado.
    • Todas las entradas
    • Mis entradas
    María Gilda Carballo
    22 mar 2021

    #Google puede hacer preguntas sobre la #ética de la #IA, pero no quiere respuestas...

    en Bienvenido al foro

    La salida de dos miembros del equipo de inteligencia artificial ética de la firma tecnológica expone el conflicto en el corazón de su modelo de negocio.



    Los empleados de Google han protestado contra el trato dado por la empresa al Dr. Timnit Gebru.

    ISi le dije que un artículo académico titulado “Sobre los peligros de los loros estocásticos” había provocado una disputa histórica que involucró a una de las empresas más poderosas del mundo, me habría preguntado qué había estado fumando. Y bien podrías: pero estad atentos. El artículo tiene cuatro coautores, dos de la Universidad de Washington y dos de Google: el Dr. Timnit Gebru y la Dra. Margaret Mitchell. Proporciona una revisión crítica útil de los modelos de lenguaje de aprendizaje automático (LM) como GPT-3 , que están entrenados en enormes cantidades de texto y son capaces de producir una prosa de apariencia plausible. La cantidad de cálculo (y las emisiones de carbono asociadas) involucradas en su construcción se ha disparado a niveles insanos, por lo que en algún momento es sensato hacer la pregunta que nunca se hace en la industria de la tecnología: ¿cuánto es suficiente? Cuál es una de las preguntas que hicieron los autores del artículo. Al responderles, identificaron “una amplia variedad de costos y riesgos asociados con la prisa por LM cada vez más grandes, que incluyen: costos ambientales (soportados generalmente por aquellos que no se benefician de la tecnología resultante); los costes económicos, que a su vez erigen barreras de entrada, limitando quiénes pueden contribuir a esta área de investigación y qué idiomas pueden beneficiarse de las técnicas más avanzadas; costo de oportunidad, ya que los investigadores desvían sus esfuerzos de direcciones que requieren menos recursos; y el riesgo de daños sustanciales, incluidos los estereotipos, la denigración, el aumento de la ideología extremista y el arresto indebido ”. Google cambiará el proceso de investigación tras el alboroto por el despido de científicos Estos hallazgos proporcionan una contranarrativa útil a la actual prisa de Gadarene de la industria de la tecnología en el modelado del lenguaje. Sin embargo, existía una pequeña dificultad. En 2018, Google creó un modelo de lenguaje llamado Bert, que era tan poderoso que la compañía lo incorporó a su motor de búsqueda, su producto principal (y más lucrativo). En consecuencia, Google es muy sensible a las críticas de una tecnología tan clave. Y dos de los coautores del artículo de investigación eran empleados de Google . Lo que sucedió a continuación fue predecible y burdo, y hay narrativas contradictorias al respecto. Gebru dice que fue despedida, mientras que Google dice que renunció. De cualquier manera, el resultado fue el mismo: en la legislación laboral inglesa se vería como un “despido constructivo” , en el que un empleado siente que no tiene más remedio que renunciar por algo que ha hecho su empleador. Pero sea cual sea la explicación, Gebru está descartado. Y también lo es su coautor y colega, Mitchell , quien había estado tratando de determinar los motivos de la oposición de Google al artículo de investigación. Los sistemas actuales de aprendizaje automático tienen problemas éticos del mismo modo que las ratas tienen pulgasPero ahora viene la parte realmente absurda de la historia. Gebru y Mitchell eran miembros destacados del equipo de IA ética de Google . En otras palabras, al ser coautores del artículo, estaban haciendo su trabajo, que es examinar críticamente las tecnologías de aprendizaje automático del tipo que ahora son fundamentales para el negocio de su empleador. Y aunque su tratamiento (y el posterior acoso en línea por parte de los trolls) ha sido traumático, al menos ha destacado hasta qué punto la reciente obsesión de la industria tecnológica con la "ética" es un fraude manipulador. Anuncio publicitario A medida que el frenesí de la industria por el aprendizaje automático se ha acelerado, también lo ha hecho la proliferación de juntas, paneles y órganos de supervisión de ética establecidos por las mismas empresas. Para crearlos, han contado con la ayuda de académicos emprendedores ansiosos por obtener una parte de la acción. En ese sentido, las consultorías lucrativas para asesorar sobre cuestiones éticas planteadas por el aprendizaje automático se han convertido en un vasto sistema de alivio para los filósofos y otros sabios que de otro modo serían desempleados. El resultado es una especie de teatro de la ética similar al teatro de seguridad que se realizaba en los aeropuertos en los años en que a las personas se les permitía volar. Y la razón por la que continúa esta farsa es que las empresas de tecnología lo ven como un ataque preventivo para protegerse de lo que realmente temen: la regulación por ley . La cuestión es que los sistemas actuales de aprendizaje automático tienen problemas éticos del mismo modo que las ratas tienen pulgas. Sus fallas intrínsecas incluyen prejuicios, injusticia, discriminación étnica y de género, enormes huellas ambientales, escasez teórica y una epistemología paralizada que equipara el volumen de datos con una mejor comprensión. Sin embargo, estas limitaciones no han impedido que las empresas tecnológicas adopten la tecnología al por mayor y, de hecho, en algunos casos (Google y Facebook, por nombrar solo dos) apostar por ella. Dado eso, puede imaginar cómo responden los altos ejecutivos a los investigadores molestos que señalan las dificultades éticas implícitas en tales acuerdos fáusticos. Puede que no sea un gran consuelo para Gebru y Mitchell, pero al menos su experiencia traumática ya ha desencadenado iniciativas prometedoras. Uno es una campaña ruidosa de algunos de sus colegas de Google. Aún más prometedora es una campaña estudiantil, #recruitmenot , cuyo objetivo es persuadir a sus compañeros de estudios para que no se unan a empresas tecnológicas. Después de todo, si no trabajarían para una empresa tabacalera o un fabricante de armas, ¿por qué trabajarían para Google o Facebook?



    www.theguardian.com
    Google might ask questions about AI ethics, but it doesn't want answers | John Naughton
    The departure of two members of the tech firm’s ethical artificial intelligence team exposes the conflict at the heart of its business model

    0 comentarios
    0
    0 comentarios

    2021, UNESCO Montevideo. Todos los derechos reservados.

    dMesa de trabajo 4.png
    • Facebook
    • Twitter

    Contacto: a.abella@unesco.org - Agustín Abella