Proyecto Aria de Facebook inteligencia artificial

Twitter, Instagram o Facebook no son empresas clásicas. No producen nada. Ni bienes ni servicios. Su producto es el usuario. Y su cliente, entidades (empresas o gobiernos) que desean manipularlo. Twitter, Instagram o Facebook traficán con la adicción de los usuarios. Ese es su producto real.

La rápida evolución y difusión de la tecnología digital plantea varios problemas éticos y de privacidad tanto para quienes desarrollan tecnologías como para el público. Algunas nuevas tecnologías contienen cámaras pequeñas que se pueden disfrazar fácilmente en público, con datos de fotos y videos que se pueden grabar, distribuir, explotar y combinar con datos recopilados previamente.

Un ejemplo de ello es el Proyecto Aria ,lanzado por el gigante tecnológico Facebook, en el que la nueva tecnología de mapeo se ha combinado con gafas de realidad aumentada (AR) equipadas con una cámara inteligente y micrófonos, lo que permite a los usuarios grabar y rastrear espacios públicos y privados, y las personas dentro de ellos, incluidos aquellos que pueden o no desear participar.

Para entender mejor este artículo sería conveniente repasar estos otros artículos ya publicados en este blog; El Hombre 3.0 el Hombre inmortal, ¿China estaría creando una clase superior de humanos?. ¿Podría la inteligencia artificial destruir la humanidad?.

En definitiva lo que se pretende es la anulación sustitución del “humano”. En general, la idea de la IA como apoyo a la toma de decisiones parece no solo atractiva, sino también razonable. Las capacidades cognitivas humanas son limitadas, y dado que el procesamiento de la información de la IA supera con creces el de los agentes humanos, ¿por qué no adoptar alguna ayuda externa?. La IA como soporte de decisiones está diseñada e implementada para simplificar las situaciones de decisión humana. Pero como tantas veces con tecnologías tan aparentemente útiles, hay una desventaja notable en estos sistemas: la IA como apoyo a la decisión puede, a veces incluso en gran medida, influir en las decisiones de sus usuarios humanos. En lugar de simplemente apoyar las decisiones humanas, la IA1 luego altera y (re)da forma a las decisiones humanas.

En algunos casos, la IA como apoyo a la decisión está establecida para hacer exactamente esto. Las tecnologías persuasivas (Fogg, 2002)o los empujones de IA (Yeung, 2016) son ejemplos de influencia de la IA disfrazada de “apoyo a la decisión” en la interacción humano-IA. Entiendo que tales casos son formas de influencia de IA previstas: el sistema de IA está diseñado para maximizar un beneficio predefinido en la interacción con un usuario humano, por lo que este beneficio no es necesariamente en el mejor interés de los usuarios. Ejemplos de tal influencia prevista de la IA se pueden encontrar en las compras en línea o las reservas en línea (Weinmann et al., 2016), donde la IA respectiva puede empujarnos a comprar o reservar algo debido a una disponibilidad supuestamente limitada del producto deseado. Otro ejemplo son las aplicaciones de atención médica (Burr et al., 2018), donde la interacción con la IA subyacente puede empujar a sus usuarios a cumplir con un conteo de pasos sugerido que supuestamente nos lleva a un estilo de vida más saludable. En ambos casos, la IA de “apoyo a la decisión” se implementa para alterar activamente y (re)dar forma a la decisión humana respectiva. Ver el Informe completo.

Las cuestiones éticas planteadas por el Proyecto Aria forman parte de las áreas de investigación de Sally Applin de HRAF Advanced Research Centres, Reino Unido y Catherine Flick del Centro de Computación y Responsabilidad Social de la Universidad De Montfort, Reino Unido. Applin y Flick han publicado sus preocupaciones en un artículo. En el Journal of Responsible Technology de Elsevier.

En AR, la percepción de la realidad de un usuario se ve reforzada por información adicional generada por computadora que se entrega como una “superposición” de estilo gráfico por computadora vista a través de gafas, gafas o la pantalla de un teléfono inteligente. Un ejemplo de uso es el del Ejército de los Estados Unidos, que ha desarrollado un ocular que proporciona a sus soldados las ubicaciones precisas y las distancias a las personas y los objetos que observan.

Las gafas Project Aria de Facebook se describen como un “dispositivo de investigación” que registrará la ubicación del usuario, así como sus datos de video, audio y seguimiento ocular. Los datos recopilados permitirán a Facebook sentar las bases para futuros dispositivos AR.

El Proyecto Aria de Facebook indica problemas para la innovación responsable al implementar ampliamente AR y otra tecnología generalizada en commons.

Y si bien los problemas de desigualdad e injusticia relacionados con el sesgo ya dominan algunos debates en la ética de la IA, la influencia no deseada que estos sistemas pueden tener en sus usuarios humanos sigue sin abordarse en gran medida. Sin embargo, muchos organismos gubernamentales y no gubernamentales de todo el mundo han comenzado a implementar estos sistemas, creando sin saberlo entornos de decisión altamente desafiantes. En este artículo, mi objetivo es abordar algunas de estas brechas, y espero arrojar algo de luz sobre las preocupaciones éticas y morales que surgen con la influencia involuntaria de la IA en la interacción humano-IA. Argumentaré que la influencia que la IA puede tener en los agentes humanos, resulta en la incapacidad de trazar líneas importantes entre el punto donde termina el “procesamiento” humano y el inicio del procesamiento de la IA. Si no podemos determinar quién o qué toma una decisión, ¿cómo podemos atribuir responsabilidades para la acción respectiva?.

En el documento, Applin y Flick describen un futuro Commons donde algunas personas usan gafas inteligentes y pueden registrar lo que sucede, mientras que otras no pueden optar por no participar fácilmente. También prevén que otras empresas e individuos creen sus propias versiones de gafas AR para competir y participar en el uso de la tecnología AR. Applin y Flick sintetizan múltiples perspectivas sobre el despliegue de la tecnología del Proyecto Aria en los Commons, utilizando teoría, estudios de casos e investigaciones secundarias para crear una imagen holística del impacto potencial de este intento de introducir tecnología ubicua en los Commons.

Un elemento central del documento es un análisis de cómo el Proyecto Aria no cumple con los principios de innovación responsable de Facebook. Applin y Flick examinan estos principios uno por uno, para identificar si y cómo el Proyecto Aria no los cumple. Concluyen: “La investigación en este documento muestra que existe una disparidad evidente entre lo que las empresas dicen que están haciendo y lo que son. Cuando se examina, se encuentra que esto falta en el mejor de los casos y es perjudicial en el peor”.

Si no se fija en algún marco regulatorio, la influencia que estos sistemas pueden tener en sus usuarios humanos, hace que sea muy difícil trazar esta línea de lo que la IA debería hacer versus realmente hace, y lo que el usuario humano debería hacer versus realmente hace. El usuario humano y la IA se convierten en un compuesto interactivo en el que los puntos de decisión de las acciones siguientes se vuelven poco claros. Esto cambia la estructura de la interacción humano-IA, y parece que las decisiones formadas dentro de las construcciones de la interacción humano-IA ya no implican tres, sino dos entidades.

En este nuevo mundo si así fuera, no habrá una clara distinción entre máquina y humano, entre realidad virtual y realidad humana. Vamos a ser capaces de asumir diferentes cuerpos y asumir una serie de personajes a voluntad. En términos prácticos, el envejecimiento humano y la enfermedad, serán revertidos; la contaminación se detendrá; el hambre en el mundo y la pobreza serán resueltos” .¿Cuantos humanos y en que condiciones?. Como podemos ir apreciando “los poderosos” no cejan en su empeño del control de lo que quede de la humanidad y de las clases que pudieran crear, ¿ciencia ficción? ya no, la pruebas son más que evidentes. Otra distinta será que clase de humanidad existirá y cuantas clases de humanos reales habrá.

3 comentarios

  1. Así no hay manera de adelgazar mi querido amigo.
    Resulta que a mí, igual que le sucedía a mi padre, los disgustos me dan un hambre terrible.
    Lo sé, soy raro. Lo normal es lo contrario. Pero ya ves.
    En fin, paciencia. Habrá que caminar más para compensar.
    Un abrazo.

    Le gusta a 1 persona

Los comentarios están cerrados.