13 junio,2024 3:23 pm

¿Qué significa que Meta entrene su Inteligencia Artificial con datos de usuarios?

 

Ciudad de México, 13 de junio de 2024. En las últimas semanas, usuarios europeos de aplicaciones de Meta, como Facebook e Instagram, reportaron que la empresa de Mark Zuckerberg les notificó que a partir del 26 de junio utilizarían sus datos para entrenar sus modelos de Inteligencia Artificial.

“Vamos a actualizar nuestra política de privacidad, en la que se explicará cómo usamos tu información para la IA en Meta”, rezaba el mensaje compartido por europeos en TikTok, Reddit y X, antes Twitter.

“Obtén más información sobre tu derecho a oponerte al uso que hacemos de tu información con estas finalidades. Los cambios entrarán en vigor el 26 de junio de 2024”, decía el resto del mensaje de Meta.

En el comunicado oficial de Meta, publicado el 22 de mayo del año en curso, la empresa explicó que desde ese día comenzaría a notificar a las personas y se comprometió a respetar las normas de privacidad y limitarse a recolectar datos de información pública.

“Utilizaremos la información pública que han compartido sobre los productos y servicios de Meta para desarrollar y mejorar la IA en Meta dentro de sus respectivas leyes de privacidad”, explicó Meta.

El objetivo, contó la compañía, es lanzar experiencias de IA Generativa usando información que refleje las diversas culturas y lenguas de las comunidades europeas.

“Esto incluye funciones que aún no están disponibles en Europa, como permitir a la gente crear pegatinas personalizadas para chats e historias, así como Meta AI, nuestro asistente virtual al que puedes acceder para responder preguntas, generar imágenes y mucho más en nuestra familia de aplicaciones y dispositivos”, abundó Meta.

En el comunicado, Meta no especificó la fecha exacta en que comenzarán a recabar esos datos.

Medios informativos europeos hicieron eco de las pretensiones de Meta y la periodista Malena Guerra, del noticiero de TV español Telecinco, informó que la opción de oponerse al uso de los datos era un proceso engorroso que se intentó más de 9 veces sin éxito.

Claudia Arruñada, académica del departamento de Comunicación de la Universidad Iberoamericana, advirtió que las y los mexicanos no estamos a salvo del proceso, dado que no hay una reglamentación que nos proteja en este campo.

“El anuncio de Meta representaría la primera ocasión que una compañía, directa y abiertamente, te está diciendo a la cara voy a usar tu información. Creo que esa es la parte escandalosa”, aseguró Arruñada.

Arruñada criticó la falta de transparencia de las tecnológicas que cuentan con este tipo de herramientas, por ejemplo Google, Microsoft, OpenAI y la misma Meta.

“No sabemos exactamente de dónde salieron las bases de datos que dieron su forma inicial a la mayoría de este tipo de programas, lo que representa uno de los meollos éticos que ha tenido la IA desde que se volvió pública o cotidiana”, afirmó la académica.

La también profesora puso sobre la mesa el uso ‘gratuito’ de las redes sociales, que no es tal, porque el precio es tu información.

“Ellos están en el entendido de ya tengo una base de datos cautiva, la voy a usar, y esa es la modificación que están haciendo a sus términos y condiciones. Todo lo que me aceptaste que ibas a compartirle al fantástico mundo del internet, lo voy a utilizar porque lo aceptaste cuando abriste tu cuenta”, concluyó Arruñada.

Amenazas en el horizonte

El pasado 4 de junio, un grupo de empleados y ex trabajadores de empresas como OpenAI, Google DeepMind y Anthropic, denunciaron en un documento la opacidad de las compañías sobre los riesgos de esta tecnología aprovechando la falta de un reglamento internacional.

En el documento titulado ‘A Right to Warn about Advanced Artificial Intelligence’ (Derecho a advertir sobre la inteligencia artificial avanzada), expertos en IA como Jacob Hilton y Daniel Kokotajlo, ex empleados de OpenAI y Ramana Kumar, quien trabajó en Google DeepMind, expusieron que la IA sin normativa exacerbará las desigualdades en el mundo, aumentará manipulación y la desinformación, e incluso sugirieron que se podría perder el control de los sistemas autónomos de IA, que podría desembocar en la extinción humana.

“Las empresas de IA poseen información sustancial no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de distintos tipos de daños. Sin embargo, en la actualidad solo tienen la débil obligación de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil. No creemos que se pueda confiar en que todas la compartan voluntariamente”, zanjaron los especialistas.

Detallaron que debido a los amplios acuerdos de confidencialidad no pueden expresar sus preocupaciones, excepto a las propias empresas que, consideraron, no están abordando estos problemas.

“Mientras no exista una supervisión gubernamental eficaz de estas empresas, los empleados actuales y antiguos son de las pocas personas que pueden hacerlas responsables ante el público”, finalizaron.

 

Texto y foto: Agencia Reforma