Los expertos evalúan los puntos de vista de la UNESCO sobre la Inteligencia Artificial

«Esta decisión fue tomada por una máquina»; «Este resultado fue automatizado con supervisión humana»; «Estos resultados potenciados por IA están disponibles para su revisión».

Este tipo de etiquetas creativas fueron propuestas por Malavika Jayram en un reciente panel de la UNESCO, como una forma de ayudar a la sociedad a comprender la creciente importancia de la Inteligencia Artificial como un determinante oculto de nuestro tiempo.

Su idea de las etiquetas fue, entre otras cosas, la de un panel de siete personas convocado en la conferencia anual de la Asociación Internacional de Investigación en Medios de Comunicación, que se celebró esta semana en Madrid.

Ella y sus colegas comentaron el documento de síntesis del Sector de la Comunicación e información sobre las investigaciones en curso de la UNESCO, que tiene por objeto aplicar el marco de la universalidad de Internet para comprender las cuestiones relativas a la inteligencia artificial (IA).

Esta investigación de la UNESCO considera la IA en el contexto de Internet, y la examina a través del prisma de los principios de la «ROAM» – derechos humanos, apertura, accesibilidad y participación de múltiples partes interesadas, así como de la «X», que representan cuestiones transversales como la igualdad de género.

Además de Jayram de Digital Asia Hub en el panel, otros participantes incluyeron: Jane Duncan (Universidad de Johannesburgo); Joe Khalil (Universidad Northwestern); Julia Pohle (Centro de Ciencias Sociales de Berlín); Aimée Vega Montiel (Universidad Nacional Autónoma de México); y Julie Posetti (Universidad de Oxford).

Al tratar con la categoría de Derechos en relación con la IA, Jane Duncan advirtió contra el determinismo tecnológico diciendo que llevaba a la gente a culpar a la tecnología por los problemas y arriesgarse a que se volvieran tecnófobos. En cambio, dijo, «tenemos que volver a poner en escena a los actores humanos y hacer que rindan cuentas».

Propuso que se determinaran las circunstancias en las que debería limitarse la adopción automatizada de decisiones, por ejemplo, en relación con los derechos en los ámbitos de la justicia penal y la seguridad.

Con respecto a la privacidad, Jane Duncan advirtió: «La IA puede utilizarse para eliminar el anonimato de los datos cuando se utilizan grandes conjuntos de datos». Entre los actores en riesgo, dijo, se encuentran los que confían en el secreto profesional.
Jane Duncan instó a la UNESCO a colaborar con los organismos reguladores de la información para aplicar normas de protección de datos a los diseños y despliegues de IA.

Los puntos de Jayram se centraron en la categoría de transparencia de los datos. «La caja negra de la IA a menudo se interpreta como una fatalidad», dijo. Sin embargo, es posible y significativo examinar la procedencia y la calidad de las fuentes de datos, así como los resultados de los procesos de IA, señaló.

«Además, aunque tal transparencia es importante, también es insuficiente si no hay un remedio significativo.»

Los estándares abiertos son clave para la IA, según Jayram, quien continuó citando la analogía de que la gente confía en la seguridad de los aviones y los coches debido al papel de los estándares de seguridad conocidos en estos ámbitos.

Advirtió que el principio de transparencia no debería comprometer la privacidad, especialmente en la carrera de algunos países por explotar los datos personales de sus ciudadanos como parte de obtener una ventaja en el juego».

Joe Khalil hizo comentarios sobre la relevancia del acceso al tema IA. Observó que IA es un territorio desconocido con desafíos técnicos, económicos y socioculturales. «Al mismo tiempo, podemos ver que IA se encuentra en el nexo entre el poder comercial y el militar, y que el acceso puede depender de la convergencia de intereses políticos y empresariales», señaló.

La neutralidad de la red es un problema que repercute en el acceso, afirmó Joe Khalil, aludiendo a los destinos de Internet “amurallados» y a las velocidades discriminatorias de conectividad que repercuten en el desarrollo y la aplicación de la IA.

Tomando el prisma de las múltiples partes interesadas, Julia Pohle argumentó que es importante distinguir la IA de la toma de decisiones automatizada e incluso de los algoritmos, incluso cuando se combinan, porque éstos plantean cuestiones diferentes.

Reconoció el valor de aplicar el marco de la ROAM para la universalidad de Internet debido a su acuerdo previo por parte de los Estados Miembros. Al mismo tiempo, señaló, «mientras que Internet esté conectada globalmente, IA puede operar sin tales vínculos».

El concepto de «interdependencia digital», planteado en el reciente informe del Grupo de Alto Nivel de las Naciones Unidas, podría ayudar a comprender cuestiones internacionales como la monopolización y el colonialismo digital en lo que respecta a la IA, propuso.
En opinión de Julia Pohle, «IA se está desarrollando principalmente a nivel nacional, con implicaciones para la participación de múltiples partes interesadas allí, que a su vez podrían beneficiarse de las experiencias internacionales de múltiples partes interesadas».

Vega Montiel abordó la cuestión de la igualdad de género como una cuestión transversal para Amnistía Internacional. «Las académicas feministas han destacado una tendencia sexista en la tecnología, incluidos los algoritmos», señaló. Debería haber recomendaciones sobre cómo IA podría ser transformador de género, y sobre quién lo desarrolla, sugirió.
«Necesitamos un enfoque intersectorial que incluya la edad, la clase y la etnia, además del género, para evaluar el impacto de la IA», concluyó.

Julie Posetti habló de la desinformación como una cuestión transversal para IA. » IA está siendo utilizada en ataques contra periodistas», dijo. Sin embargo, «necesitamos un periodismo crítico y explicativo para cubrir la IA», y no contentarnos con una cobertura que dé un predominio indebido a los actores corporativos investidos.

Julie Posetti también advirtió contra el sobreesfuerzo de las «burbujas de filtros» causadas por la IA.

Anteriormente, Jane Duncan observó que la IA podría utilizarse para identificar las «burbujas de filtros» y sus impulsores, y aplicar la ingeniería inversa para que, por ejemplo, los que niegan el cambio climático estén expuestos a la información científica.

El debate fue moderado por Guy Berger, Director para la Libertad de Expresión y el Desarrollo de los Medios de Comunicación de la UNESCO, quien contextualizó la investigación de la UNESCO sobre la Universalidad de Internet y sus indicadores, y a la luz de las recientes decisiones del Consejo Ejecutivo de la UNESCO.

En una reunión del Consejo de Administración del Programa Internacional para el Desarrollo de la Comunicación (PIDC) de la UNESCO, celebrada en 2018, se dio luz verde a los indicadores de universalidad de Internet, que también pueden ser útiles para la investigación de la IA, con miras a su utilización voluntaria por los Estados Miembros.

Albana Shala, que presidió la reunión en 2018 y sigue representando a los Países Bajos en el PIDC, concluyó la sesión recordando a los participantes que IA intensificó el desafío de los ODS (Objetivos de Desarrollo Sostenible) de que «nadie debe quedarse atrás».

Si te gustó compártelo en tus redes sociales                                                     Fuente:Unesco