LinkedIn aceptado Wednesday que ha estado entrenando su propia IA con los datos de muchos usuarios sin pedir consentimiento. Ahora no hay forma de que los usuarios opten por no participar en la formación que ya se ha realizado, ya que LinkedIn limita la opción de no participar únicamente en la formación futura en IA.

En un blog que detalla las actualizaciones que se publicarán el 20 de noviembre, el abogado general de LinkedIn, Blake Lawit, confirmó que el acuerdo de usuario y la política de privacidad de LinkedIn se cambiarán para explicar mejor cómo los datos personales de los usuarios impulsan la IA en la plataforma.

bajo el nuevo política de privacidadLinkedIn ahora informa a los usuarios que “podemos utilizar sus datos personales… (para) desarrollar y entrenar modelos de inteligencia artificial (IA), desarrollar, proporcionar y personalizar nuestros Servicios y obtener información con la ayuda de IA, sistemas automatizados, e inferencias, para que nuestros Servicios puedan ser más relevantes y útiles para usted y otros”.

Un Preguntas frecuentes Explicó que los datos personales podrían recopilarse cada vez que un usuario interactúa con la IA generativa u otras funciones de IA, así como cuando un usuario redacta una publicación, cambia sus preferencias, proporciona comentarios a LinkedIn o usa la plataforma durante cualquier período de tiempo.

Luego, esos datos se almacenan hasta que el usuario elimina el contenido generado por la IA. LinkedIn recomienda que los usuarios utilicen su herramienta de acceso a datos si desean eliminar o solicitar eliminar datos recopilados sobre actividades anteriores de LinkedIn.

Los modelos de IA de LinkedIn que impulsan las funciones de IA generativa “pueden ser entrenados por LinkedIn u otro proveedor”, como Microsoft, que proporciona algunos modelos de IA a través de su servicio Azure OpenAI, según las preguntas frecuentes.

Un riesgo de privacidad potencialmente importante para los usuarios, según las preguntas frecuentes de LinkedIn, es que los usuarios que “proporcionan datos personales como entrada a una función generativa impulsada por IA” podrían terminar viendo que sus “datos personales se proporcionan como salida”.

LinkedIn afirma que “busca minimizar los datos personales en los conjuntos de datos utilizados para entrenar los modelos”, confiando en “tecnologías que mejoran la privacidad para redactar o eliminar datos personales del conjunto de datos de entrenamiento”.

Si bien el blog de Lawit evita aclarar si los datos ya recopilados se pueden eliminar de los conjuntos de datos de entrenamiento de IA, las preguntas frecuentes afirmaron que los usuarios que optaron automáticamente por compartir datos personales para el entrenamiento de IA sólo pueden optar por no participar en la recopilación de datos invasivos “en el futuro”.

La exclusión voluntaria “no afecta la capacitación que ya se ha realizado”, según las preguntas frecuentes.

Un portavoz de LinkedIn le dijo a Ars que “beneficia a todos los miembros” optar por recibir capacitación en IA “de forma predeterminada”.

“Las personas pueden optar por no participar, pero vienen a LinkedIn para buscar trabajo y establecer contactos, y la IA generativa es parte de cómo ayudamos a los profesionales con ese cambio”, dijo el portavoz de LinkedIn.

Al permitir la exclusión voluntaria de futuras capacitaciones en IA, el portavoz de LinkedIn afirmó además que la plataforma está brindando “a las personas que usan LinkedIn aún más opciones y control cuando se trata de cómo usamos los datos para entrenar nuestra tecnología generativa de IA”.

Cómo darse de baja de la formación sobre IA en LinkedIn

Los usuarios pueden optar por no recibir capacitación en IA navegando a la sección “Privacidad de datos” en la configuración de su cuenta y luego desactivando la opción que permite la recopilación de “datos para la mejora generativa de la IA” que, de otro modo, LinkedIn activa automáticamente para la mayoría de los usuarios.

La única excepción es para los usuarios del Espacio Económico Europeo o Suiza, que están protegidos por leyes de privacidad más estrictas que requieren el consentimiento de las plataformas para recopilar datos personales o que las plataformas justifiquen la recopilación de datos como un interés legítimo. Esos usuarios no verán una opción para darse de baja, porque nunca fueron elegidos, confirmó LinkedIn repetidamente.

Además, los usuarios pueden “oponerse al uso de sus datos personales para la formación” de modelos de IA generativa que no se utilizan para generar contenido de LinkedIn, como los modelos utilizados con fines de personalización o moderación de contenido, The Verge anotado—presentando el Formulario de objeción al procesamiento de datos de LinkedIn.

El año pasado, LinkedIn compartido Principios de la IA, que prometen tomar “medidas significativas para reducir los riesgos potenciales de la IA”.

Un riesgo de que la actualización acuerdo de usuario Lo especificado es que el uso de las funciones generativas de LinkedIn para ayudar a completar un perfil o generar sugerencias al escribir una publicación podría generar contenido que “podría ser inexacto, incompleto, retrasado, engañoso o no adecuado para sus propósitos”.

Se advierte a los usuarios que son responsables de evitar compartir información engañosa o difundir contenido generado por IA que pueda violar las pautas comunitarias de LinkedIn. Y también se advierte a los usuarios que tengan cuidado al confiar en cualquier información compartida en la plataforma.

“Al igual que todo el contenido y otra información de nuestros Servicios, independientemente de si está etiquetado como creado por ‘IA’, asegúrese de revisarlo cuidadosamente antes de confiar en él”, dice el acuerdo de usuario de LinkedIn.

En 2023, LinkedIn afirmó que siempre “buscaría explicar de manera clara y sencilla cómo nuestro uso de la IA afecta a las personas”, porque la “comprensión de la IA por parte de los usuarios comienza con la transparencia”.

Legislación como la Ley de IA de la Unión Europea y el RGPD, especialmente con sus sólidas protecciones de la privacidad, si se promulga en otros lugares, generaría menos conmociones para los usuarios desprevenidos. Eso pondría a todas las empresas y a sus usuarios en pie de igualdad a la hora de entrenar modelos de IA y daría como resultado menos sorpresas desagradables y clientes enojados.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here