• About
  • Advertise
  • Privacy & Policy
  • Contact
FlashBerg
  • Hogar
  • Salud
  • Cripto
  • Moda
  • Deportes
  • Dinero
  • Entretenimiento
  • Negocio
  • Tecno
No Result
View All Result
  • Hogar
  • Salud
  • Cripto
  • Moda
  • Deportes
  • Dinero
  • Entretenimiento
  • Negocio
  • Tecno
No Result
View All Result
FlashBerg
No Result
View All Result
Home Negocio

Cómo crear un espacio para la ética en la IA

by Flashberg
December 20, 2020
in Negocio
0
Cómo crear un espacio para la ética en la IA
Share on FacebookShare on Twitter

En un año que ha sido testigo de décadas de conmociones globales, malas noticias y escándalos comprimidos en 12 meses insoportablemente largos, el verano ya se siente como un recuerdo lejano. En agosto de 2020, el mundo estaba inmerso en un importante movimiento de justicia social y racial, y con suerte dije en VentureBeat que el término “IA ética” finalmente estaba comenzando a significar algo.

No fue la observación de un observador desinteresado, sino una visión optimista para unir la comunidad ética de la IA en torno a las nociones de poder, justicia y cambio estructural. Sin embargo, en los meses transcurridos ha demostrado ser, en el mejor de los casos, una visión demasiado simplista y, en el peor, ingenua.

El artículo criticaba la IA ética de la “segunda ola” por estar preocupada por las soluciones técnicas a los problemas de prejuicio y equidad en el aprendizaje automático. Observó que centrarse en intervenciones técnicas para abordar los daños éticos desviaron la conversación de los problemas de la injusticia estructural y permitió la “cooptación de científicos informáticos socialmente conscientes” por parte de las grandes empresas de tecnología.

Ahora me doy cuenta de que este argumento minimizó la contribución de los investigadores éticos de IA (científicos e investigadores dentro de las empresas de tecnología y sus colaboradores) a la agenda más amplia de justicia y ética. Solo vi cooptación y no pude resaltar el rechazo interno crítico y los desafíos a las estructuras de poder arraigadas que propagan los investigadores de IA ética, y el potencial que tiene su investigación radical para cambiar la forma de las tecnologías.

Los investigadores de ética contribuyen a este movimiento simplemente presentándose a trabajar todos los días, participando en la práctica diaria de hacer tecnología y defendiendo una agenda de “moverse despacio y arreglar las cosas” contra una marea de métricas de productividad y KPI de crecimiento. Muchos de estos investigadores están adoptando una posición de principios como miembros de grupos minoritarios. Estaba argumentando que un enfoque en la precisión técnica reduce el discurso sobre la ética en la IA. Lo que no reconocí fue que tal investigación puede socavar la ortodoxia tecnológica que está en la raíz del desarrollo poco ético de la tecnología y la IA.

La decisión de Google de despedir al Dr. Timnit Gebru es una clara confirmación de que los investigadores de tecnología ética representan un serio desafío para las empresas en las que trabajan. El Dr. Gebru es un científico informático negro respetado cuyo trabajo más destacado ha defendido intervenciones técnicamente dirigidas a los daños éticos. La rescisión de su contrato por parte de Google ha sido objeto de muchos comentarios y debates. Refleja un punto importante: que no importa si la “IA ética” está empezando a significar algo para aquellos de nosotros que trabajamos para mejorar el impacto de la tecnología en la sociedad; solo importa si significa algo para las empresas más poderosas del mundo.

Por esa razón, la decisión de Google de despedir sin ceremonias a un empleado experto, vocal y de alto perfil abre una falla crítica en la agenda ética de la IA y expone el punto más vulnerable de la gran tecnología.

Una agenda ética sostiene que los principios morales del bien y del mal deben dar forma al desarrollo de tecnologías avanzadas, incluso cuando esas tecnologías son demasiado embrionarias, amorfas o mercuriales para que los marcos regulatorios existentes las capten o restrinjan rápidamente. La “IA ética” tiene como objetivo cubrir las brechas con una variedad de herramientas: análisis basado en la filosofía moral, la teoría crítica y las ciencias sociales; principios, marcos y directrices; evaluaciones de riesgo e impacto, auditorías de sesgo y escrutinio externo. No se posiciona como un sustituto de la ley y la regulación, sino como un marcador de posición o un complemento de ella. Pensar en las cuestiones éticas que plantea la IA debería ayudarnos a identificar dónde es necesaria la regulación, qué investigación no debería realizarse y si los beneficios de la tecnología se acumulan de forma equitativa y sostenible.

Pero para que funcione, tiene que suceder en los lugares donde se está llevando a cabo la investigación y el desarrollo tecnológico de la IA. En institutos de investigación, en universidades y especialmente en empresas tecnológicas. Las pequeñas empresas que construyen vehículos autónomos, los laboratorios de investigación de inteligencia artificial de tamaño mediano y los gigantes tecnológicos que construyen las plataformas de comunicación y comercio dominantes deben reconocer, internalizar y proporcionar espacio para pensar en la ética para que pueda marcar la diferencia. Deben hacer que los principios de equidad y diversidad sean fundamentales, adoptando perspectivas, voces y enfoques de toda la sociedad, particularmente la diversidad racial y de género. Lo que es más importante, deben darle a ese trabajo el peso que se merece estableciendo procesos de revisión de la ética con dientes, sancionados y apoyados por la alta dirección.

Hasta ahora, muchas empresas han hablado. Google, Facebook y DeepMind han establecido oficiales de ética o equipos de ética dentro de sus departamentos de investigación de IA. La ética se ha convertido en una parte más explícita del mandato de los directores de cumplimiento y los departamentos de confianza y seguridad de muchas empresas de tecnología. Los compromisos retóricos con la ética se han convertido en algo habitual en los podcasts tecnológicos y en las conferencias tecnológicas.

Fuera de las estructuras corporativas, la comunidad de investigación de la IA se ha enfrentado a su propia responsabilidad para garantizar el desarrollo ético de la IA. En particular, este año, la principal conferencia de IA, NeurIPS, requirió que los investigadores presentaran artículos para explicar el impacto social de su trabajo, así como cualquier conflicto de interés financiero.

Y, sin embargo, como demuestra una encuesta reciente de 24 practicantes éticos de la IA, incluso cuando las empresas nombran investigadores y profesionales dedicados a la IA ética, constantemente no logran crear el espacio y las condiciones para que hagan su trabajo. Los entrevistados en la encuesta “informaron que se les midió la productividad y las contribuciones a los ingresos, con poco valor para prevenir el daño a la reputación o el cumplimiento y mitigar el riesgo”, y mucho menos garantizar el beneficio social. La encuesta revela que los actores corporativos son incapaces de poner en práctica los beneficios a largo plazo del desarrollo ético de la IA cuando se trata de obtener métricas de beneficios a corto plazo.

La encuesta revela que los practicantes éticos de la IA se enfrentan al riesgo de represalias o daños por informar sobre preocupaciones éticas. Algunos equipos de ética informan haber sido aislados de ciertos proyectos que merecían su atención o aislados para abordar partes estrechas de problemas mucho más amplios. La acción retributiva en forma de reducción es más que un peligro teórico para los investigadores éticos de IA, como demuestra el despido del Dr. Gebru: Google la despidió después de que criticara los daños y riesgos de los grandes modelos de lenguaje.

Si una de las empresas más rentables, influyentes y escrutadas del mundo no puede dar cabida a la crítica ética dentro de sus filas, ¿hay alguna esperanza de avanzar en la IA verdaderamente ética?

No, a menos que las condiciones estructurales que sustentan la investigación y el desarrollo de la IA cambien fundamentalmente. Y ese cambio comienza cuando ya no permitimos que un puñado de empresas de tecnología mantengan el dominio completo de las materias primas de la investigación de la IA: los datos.

Los estrangulamientos monopolísticos en el ámbito digital desincentivan la investigación ética de la IA. Permiten que unos pocos jugadores poderosos avancen en la investigación de la IA que amplía su propio poder y alcance, superando a nuevos participantes en el mercado que podrían competir. En la medida en que los consumidores vean la IA ética como más confiable, confiable y socialmente legítima, su adopción podría ser un subproducto de un mercado más competitivo. Pero en un entorno de opciones restringidas de los consumidores y poder concentrado, existen pocos incentivos comerciales para desarrollar productos diseñados para atraer la confianza del público.

Por esa razón, en 2021 los instrumentos más importantes de IA ética serán la regulación tecnológica y la reforma de la competencia. El escrito ya está en la pared: ahora hay múltiples demandas antimonopolio pendientes contra las plataformas más grandes de los Estados Unidos, y esta semana la Comisión Europea anunció un paquete de reformas que reformarán fundamentalmente las plataformas y el poder que ejercen, al igual que el gobierno del Reino Unido. señaló su propia intención de llevar una reforma regulatoria para imponer un “deber de cuidado” en las plataformas con respecto a los daños en línea. Dichas reformas deberían corregir críticamente el panorama del desarrollo de la tecnología y la inteligencia artificial, permitiendo vías alternativas de innovación, estimulando nuevos modelos comerciales y eliminando la homogeneidad del ecosistema digital.

Sin embargo, no serán una panacea. La influencia de las grandes tecnologías en la investigación académica no se disipará con la reforma de la competencia. Y si bien es probable que haya una lucha prolongada por la regulación de un puñado de actores clave, miles de pequeñas y medianas empresas de tecnología deben enfrentar urgentemente las preguntas éticas que la investigación de la IA provoca con respecto a la agencia humana y la autonomía; equidad y justicia; y trabajo, bienestar y planeta.

Para crear un espacio para la investigación ética ahora, tanto dentro como fuera del sector tecnológico, no podemos esperar a la gran regulación tecnológica. Debemos comprender mejor la cultura de las empresas de tecnología, impulsar la protección de los denunciantes de irregularidades para los investigadores de ética, ayudar a mejorar las habilidades de los reguladores, desarrollar requisitos de documentación y transparencia, y realizar auditorías e inspecciones regulatorias. Y debe haber un ajuste de cuentas en toda la industria cuando se trata de abordar el racismo sistémico y las prácticas laborales extractivas. Sólo entonces se empoderará a las personas que construyen tecnologías para orientar su trabajo hacia el bien social.

Carly Kind es abogada de derechos humanos, experta en protección de datos y privacidad y directora del Instituto Ada Lovelace.

Source: http://feedproxy.google.com/~r/venturebeat/SZYF/~3/8fel3cvP3BU/

Previous Post

Astrónomos descubren la primera señal de radio proveniente de un exoplaneta – Ayraza – todas las noticias financieras, deportivas, económicas

Next Post

NNB Nutrition NewBiome Delivers a Pure Form of Tributyrin

Next Post
Tributyrin: The Gut Health Optimizer

NNB Nutrition NewBiome Delivers a Pure Form of Tributyrin

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

  • Trending
  • Comments
  • Latest
El prometido de Demi Lovato, Max Ehrich, acusado de perseguir y tener sed por Selena Gomez en viejos tweets, ¡pero la cantante dice que todo es ‘FALSO’ a pesar de la evidencia del video!

El prometido de Demi Lovato, Max Ehrich, acusado de perseguir y tener sed por Selena Gomez en viejos tweets, ¡pero la cantante dice que todo es ‘FALSO’ a pesar de la evidencia del video!

September 14, 2020
Prometido de 90 días felices para siempre: Jess Caroline DESCARGA a Colt Johnson

Prometido de 90 días felices para siempre: Jess Caroline DESCARGA a Colt Johnson

September 8, 2020
Reducir las tasas de COVID universitario requiere una mano más dura

Reducir las tasas de COVID universitario requiere una mano más dura

September 21, 2020
Adelanto del prometido de 90 días: ¡¿El papá de Kalani Faagata va a LUCHAR contra Asuelu?!

Adelanto del prometido de 90 días: ¡¿El papá de Kalani Faagata va a LUCHAR contra Asuelu?!

September 11, 2020
La abogada de Toronto, Becca Brennen, explica cómo el COVID-19 ha afectado a los autónomos que trabajan en la industria del entretenimiento

La abogada de Toronto, Becca Brennen, explica cómo el COVID-19 ha afectado a los autónomos que trabajan en la industria del entretenimiento

La FDA anuncia una reunión pública para discutir el desarrollo y la licencia de las vacunas COVID-19

La FDA anuncia una reunión pública para discutir el desarrollo y la licencia de las vacunas COVID-19

El 73% de los argentinos dice que las criptomonedas son las mejores para ahorrar en una crisis económica: encuesta

El 73% de los argentinos dice que las criptomonedas son las mejores para ahorrar en una crisis económica: encuesta

Los comerciantes de criptomonedas describen los resultados probables

La abogada de Toronto, Becca Brennen, explica cómo el COVID-19 ha afectado a los autónomos que trabajan en la industria del entretenimiento

La abogada de Toronto, Becca Brennen, explica cómo el COVID-19 ha afectado a los autónomos que trabajan en la industria del entretenimiento

March 2, 2021
¿Por qué las empresas abandonan QuickBooks por servicios financieros en la nube?

¿Por qué las empresas abandonan QuickBooks por servicios financieros en la nube?

March 2, 2021
Wall Street ignora estas cinco acciones de reapertura

Wall Street ignora estas cinco acciones de reapertura

March 2, 2021
Jennette McCurdy deja de actuar antes del reinicio de ‘iCarly’ – Hollywood Life

Jennette McCurdy deja de actuar antes del reinicio de ‘iCarly’ – Hollywood Life

March 2, 2021

Noticias recientes

La abogada de Toronto, Becca Brennen, explica cómo el COVID-19 ha afectado a los autónomos que trabajan en la industria del entretenimiento

La abogada de Toronto, Becca Brennen, explica cómo el COVID-19 ha afectado a los autónomos que trabajan en la industria del entretenimiento

March 2, 2021
¿Por qué las empresas abandonan QuickBooks por servicios financieros en la nube?

¿Por qué las empresas abandonan QuickBooks por servicios financieros en la nube?

March 2, 2021
Wall Street ignora estas cinco acciones de reapertura

Wall Street ignora estas cinco acciones de reapertura

March 2, 2021
Jennette McCurdy deja de actuar antes del reinicio de ‘iCarly’ – Hollywood Life

Jennette McCurdy deja de actuar antes del reinicio de ‘iCarly’ – Hollywood Life

March 2, 2021

Sobre Nosotras

FlashBerg

Con la ayuda de FlashBerg News, se pueden buscar fácilmente noticias de numerosas fuentes en línea en todo el mundo. Ofrece la posibilidad de categorizar noticias y verlas personalizadas para que sean esenciales.

Buscar por categoría

  • Cripto
  • Deportes
  • Dinero
  • Entretenimiento
  • Moda
  • Negocio
  • News
  • Salud
  • Tecno

Noticias recientes

La abogada de Toronto, Becca Brennen, explica cómo el COVID-19 ha afectado a los autónomos que trabajan en la industria del entretenimiento

La abogada de Toronto, Becca Brennen, explica cómo el COVID-19 ha afectado a los autónomos que trabajan en la industria del entretenimiento

March 2, 2021
¿Por qué las empresas abandonan QuickBooks por servicios financieros en la nube?

¿Por qué las empresas abandonan QuickBooks por servicios financieros en la nube?

March 2, 2021
  • About
  • Advertise
  • Privacy & Policy
  • Contact

© 2020 FlashBerg

No Result
View All Result
  • Hogar
  • Salud
  • Cripto
  • Moda
  • Deportes
  • Dinero
  • Entretenimiento
  • Negocio
  • Tecno

© 2020 FlashBerg