Un informe de Gartner predice que las consecuencias de segundo orden de la IA generalizada tendrán impactos sociales masivos, hasta el punto de hacernos inseguros de si podemos confiar en nuestros propios ojos y cuándo hacerlo.
Imagen: iStockphoto / Feodora Chiosea
Más sobre inteligencia artificial
Gartner ha publicado una serie de informes de investigación de Predicts 2021, incluido uno que describe los problemas éticos y sociales serios y de amplio alcance que predice que la inteligencia artificial (IA) causará en los próximos años. En Predicts 2021: Artificial Intelligence and its Impact on People and Society, cinco analistas de Gartner informan sobre diferentes predicciones que creen que se harán realidad para 2025. El informe llama especialmente la atención sobre lo que denomina consecuencias de segundo orden de la inteligencia artificial que surgen como no intencionales. resultados de las nuevas tecnologías.
VER: Calendario editorial de TechRepublic Premium: políticas de TI, listas de verificación, kits de herramientas e investigación para descargar (TechRepublic Premium)
La IA generativa, por ejemplo, ahora puede crear fotografías increíblemente realistas de personas y objetos que en realidad no existen; Gartner predice que para 2023, el 20% de las adquisiciones de cuentas utilizarán deepfakes generados por este tipo de IA. “Las capacidades de inteligencia artificial que pueden crear y generar contenido hiperrealista tendrán un efecto transformador en la medida en que las personas pueden confiar en sus propios ojos”, dijo el informe.
El informe aborda cinco predicciones diferentes para el mercado de la IA y ofrece recomendaciones sobre cómo las empresas pueden abordar esos desafíos y adaptarse al futuro:
Para 2025, los modelos de IA previamente entrenados se concentrarán en gran medida entre el 1% de los proveedores, lo que hará que el uso responsable de la IA sea una preocupación social En 2023, el 20% de los ataques exitosos de adquisición de cuentas utilizarán deepfakes como parte de los ataques de ingeniería social.
Para 2024, el 60% de los proveedores de inteligencia artificial incluirán la mitigación de daños / uso indebido como parte de su software.
Para 2025, el 10% de los gobiernos evitarán las preocupaciones por la privacidad y la seguridad mediante el uso de poblaciones sintéticas para capacitar a la IA
Para el 2025, el 75% de las conversaciones en el lugar de trabajo se grabarán y analizarán para su uso en la adición de valor organizacional y la evaluación de riesgos.
Cada uno de esos análisis es suficiente para hacer que los observadores de la IA se sientan y tomen nota, pero cuando se combinan, crean una imagen de un futuro sombrío plagado de preocupaciones éticas, posible uso indebido de la IA y pérdida de privacidad en el lugar de trabajo.
Cómo pueden responder las empresas
Las preocupaciones sobre el efecto de la IA en la privacidad y la verdad seguramente serán temas importantes en los próximos años si los analistas de Gartner son precisos en sus predicciones, y las empresas exitosas deberán estar preparadas para adaptarse rápidamente a esas preocupaciones.
Un tema recurrente en el informe es el establecimiento de juntas de ética en empresas que dependen de la IA, ya sea como un servicio o un producto. Esto se menciona particularmente para las empresas que planean grabar y analizar las conversaciones en el lugar de trabajo: deben establecerse juntas con representación de los empleados para garantizar el uso justo de los datos de las conversaciones, dijo Gartner.
VER: Procesamiento del lenguaje natural: una hoja de trucos (TechRepublic)
Gartner también recomienda que las empresas establezcan criterios para el consumo responsable de IA y den prioridad a los proveedores que “puedan demostrar un desarrollo responsable de la IA y claridad al abordar las preocupaciones sociales relacionadas”.
En cuanto a las preocupaciones de seguridad relacionadas con los deepfakes y la IA generativa, Gartner recomienda que las organizaciones programen la formación sobre deepfakes. “Ahora estamos entrando en un mundo de confianza cero. No se puede confiar en nada a menos que esté certificado como autenticado mediante firmas digitales criptográficas”, dice el informe.
Hay mucho que digerir en este informe, desde cifras que dicen que el mejor software de detección de deepfake alcanzará una tasa de identificación del 50% a largo plazo, hasta la predicción de que en 2023 una importante corporación de EE. UU. Adoptará el análisis de conversaciones para determinar la compensación de los empleados. . Hay mucho de qué preocuparse en estos análisis, pero también se incluyen posibles antídotos. El informe completo está disponible en Gartner, pero las partes interesadas deberán pagar por el acceso.
Boletín de datos, análisis e inteligencia artificial
Conozca las últimas noticias y las mejores prácticas sobre ciencia de datos, análisis de big data e inteligencia artificial. Entregado los lunes
Regístrate hoy