La IA Generativa (IAG) está transformando la forma en que interactuamos con la tecnología, pero también plantea serias preocupaciones sobre la privacidad de los usuarios.
Así como grandes empresas de tecnología están en constante avance en sus políticas de privacidad, hay otras con las que no queda muy claro el para qué se van a utilizar los datos suministrados por los usuarios.
Ante ello, ESET, empresa de detección de ciberamenaza, ha estudiado el caso particular de las empresas Microsoft y Adobe, las cuales están incorporando nuevas funciones basadas en IAG en sus productos, lo que ha generado debates sobre el manejo de los datos personales.
Microsoft: Windows Recall y el almacenamiento local de datos
En el caso de Microsoft, esta ha introducido la función de Recall en Windows, que permite a los usuarios realizar búsquedas en todo el contenido de su computadora.
Aunque la compañía dio la opción de desactivar o personalizar esta función para que solo recolecte cierta información, algunos usuarios temen que haya la posibilidad de que los datos sean enviados a la nube y utilizados para fines no especificados.
Ante ello, Microsoft asegura que los datos se almacenan localmente y están cifrados, investigaciones de seguridad han demostrado que es posible acceder a esta información de forma relativamente sencilla.
Adobe: Entrenamiento de modelos de IA Generativa con datos de usuario
Adobe, por su parte, ha actualizado su política de privacidad para permitir el uso de los datos de los usuarios para entrenar sus modelos de IA, generando controversia entre los usuarios que utilizan sus servicios, porque la opción debía ser aceptada obligatoriamente para poder seguir usando el programa.
Aunque la empresa ha aclarado que no leerá los proyectos individuales de los usuarios, esta práctica sigue generando preocupación entre la comunidad creativa.
Importancia de la transparencia en las políticas de privacidad en la era de la IA generativa
En cada uno de los casos presentados antes, los usuarios reflejan su preocupación por la poca claridad que había sobre el uso que se le iban a dar a sus datos; por ello, que es primordial que las empresas sean transparentes y claras en sus políticas de privacidad.
Un lenguaje sencillo y directo permite a los usuarios comprender mejor cómo se utilizan sus datos y tomar decisiones informadas. Además, la claridad en la comunicación puede ayudar a prevenir conflictos legales y a fortalecer la confianza de los usuarios.
Y es que, el no contar con políticas de privacidad seguras y confiables, las empresas pueden enfrentarse a riesgos como los siguientes:
- Violación de la privacidad: La recopilación y el almacenamiento de grandes cantidades de datos personales aumentan el riesgo de que esta información sea filtrada o utilizada de manera inapropiada.
- Derechos de autor: El uso de datos de usuario para entrenar modelos de IA puede infringir derechos de autor si no se obtienen los permisos necesarios.
- Ciberseguridad: Las nuevas funciones basadas en IAG pueden introducir vulnerabilidades en los sistemas, lo que facilita los ataques cibernéticos.
La IAG ofrece grandes beneficios, pero también plantea importantes desafíos en materia de privacidad, por tal motivo, es importante que las empresas tecnológicas sean transparentes en sus prácticas y que los usuarios estén informados sobre cómo se utilizan sus datos.
Además, se necesitan regulaciones más claras y estrictas para proteger la privacidad de los usuarios en la era de la IAG.