LinkedIn usa tus datos para entrenar IA: cómo afecta tu privacidad

 19-09-2024
Axel Olivares
   
Foto: Sergio F Cara

Foto: Sergio F Cara

Recientemente, se conoció que la red social LinkedIn utiliza cuentas para entrenar a sus modelos de inteligencia artificial generativa. De acuerdo con 404 Media, la plataforma actualizó su política de privacidad para incluir esta nueva clausula.

"Podemos utilizar sus datos personales para mejorar, desarrollar y proporcionar productos y Servicios, desarrollar y entrenar modelos de inteligencia artificial (IA), desarrollar, proporcionar y personalizar nuestros Servicios, y obtener información con la ayuda de IA, sistemas automatizados e inferencias, para que nuestros Servicios puedan ser más relevantes y útiles para usted y otros", indica LinkedIn en su nueva actualización.

Según la página oficial, LinkedIn utiliza IA generativa para fines como funciones de asistente de redacción. Los usuarios pueden revocar este permiso haciendo clic en "Datos para la mejora de la IA generativa" ubicado en "Privacidad de datos". Sin embargo, LinkedIn asegura que: "Darse de baja significa que LinkedIn y sus afiliados no usarán sus datos personales ni su contenido en LinkedIn para entrenar modelos en el futuro, pero no afecta el entrenamiento que ya se haya realizado".

Esto provocó repercusión entre varios usuarios. La organización sin fines de lucro Open Rights Group (ORG) le solicitó a la Oficina del Comisionado de Información (ICO), un regulador independiente del Reino Unido en materia de derechos de protección de datos, que investigue LinkedIn y otras redes sociales que se entrenan con datos de los usuarios de forma predeterminada. "LinkedIn es la última empresa de redes sociales que procesa nuestros datos sin pedirnos nuestro consentimiento", afirmó Mariano Delli Santi, responsable jurídico y de políticas de ORG, en un comunicado.

Además, agregó que "el modelo de exclusión voluntaria demuestra una vez más ser totalmente inadecuado para proteger nuestros derechos". En este sentido, aseguró: "No se puede esperar que el público controle y persiga a todas y cada una de las empresas en línea que deciden utilizar nuestros datos para entrenar a la IA. Santi resaltó la importancia del consentimiento voluntario como una instancia que "no solo es obligatorio por ley, sino que es un requisito de sentido común". Por otro lado, otras entidades como la Comisión de Protección de Datos de Irlanda (DPC), la autoridad supervisora responsable de monitorear el cumplimiento del Reglamento General de Protección de Datos (RGPD) de la Unión Europea, dijo a TechCrunch que LinkedIn emitiría próximamente aclaraciones sobre su política de privacidad global.

"LinkedIn nos informó que la política incluiría una opción de exclusión voluntaria para sus miembros que no quisieran que sus datos se utilizaran para entrenar modelos de IA que generen contenido", afirmó el portavoz de la DPC. "La opción de excusión voluntaria aun no se encuentra disponible para los miembros de la Unión Europea. ya que LinkedIn no está utilizando actualmente los datos de los miembros de la UE/EEE [Espacio Económico Europeo] para entrenar o ajustar estos modelos", aseguraron desde la entidad.

El creciente interés por entrenar modelos de IA generativos está impulsando a diversas plataformas a reutilizar o adaptar de distintas maneras sus vastas cantidades de contenido generado por los usuarios. Algunas decidieron incluso monetizar este contenido: empresas como Automattic, propietaria de Tumblr, junto con Photobucket, Reddit y Stack Overflow, comenzaron a otorgar licencias de datos a desarrolladores de modelos de IA. Aunque, no todos facilitaron la cancelación de la suscripción.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS