¿Es confiable usar ChatGPT?
Con la creciente popularidad mundial de los modelos de lenguaje generativo como ChatGPT-4, capaces de responder preguntas concretas, han surgido preocupaciones sobre el uso de esta nueva tecnología. Si bien estas herramientas ya son utilizadas como chatbots y para crear resúmenes de textos, así como traducciones de idiomas, una de las principales inquietudes entre las personas es la exposición de su privacidad al utilizar este tipo de plataformas.
GPT-4 se basa en una gran cantidad de datos en Internet que va desde contenido en redes sociales, hasta sitios web personales para entrenar un modelo de machine learning o aprendizaje automático. Debido a esto, puede ser difícil saber si la información se empleó sin la autorización de los usuarios, sin mencionar que puede ser complicado controlar o eliminar datos que hayan sido ingresados al sistema. Además de representar un riesgo potencial en la integridad de los datos, esto representaría un problema técnico, ya que el modelo perdería precisión al procesar los textos.
De acuerdo con Avast, una marca global de seguridad digital y privacidad de Gen™ (NASDAQ: GEN), actualmente no existe ninguna forma autorizada para que la gente solicite la eliminación de sus datos, una vez que se han utilizado para entrenar a un sistema como este. En este aspecto, muchos internautas se preguntan si el tratamiento y manipulación de su información por parte de estas aplicaciones es legal.
Una de las regulaciones clave para entender cómo deben manejarse los datos a medida que surgen nuevas formas de IA es el Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés) de la Unión Europea. Éste exige que las organizaciones obtengan el consentimiento explícito de las personas antes de recopilar y utilizar sus datos personales. Además, el responsable del tratamiento debe cumplir los principios del Reglamento, como el derecho a ser notificado, el derecho de acceso, el derecho de rectificación, el derecho de eliminación, el derecho de objeción y el derecho a la portabilidad de datos.
"Según el GDPR, las personas pueden solicitar a las organizaciones que eliminen sus datos personales. Este derecho se conoce como derecho al olvido. Es un recurso importante que proporciona a los individuos el control sobre su información. La IA generativa aprende de los datos de Internet, incluidos los datos privados de los usuarios", señaló Sadia Afroz, investigadora de IA en Avast.
Algunos investigadores y empresas trabajan en métodos que permitan borrar u "olvidar" puntos específicos o información del usuario, pero aún se encuentran en desarrollo y no está claro qué tan eficaces serán. "Cada vez son más los expertos que proponen métodos de 'desaprendizaje automático' para eliminar los datos de entrenamiento de un modelo. Pero los modelos generativos actuales son demasiado grandes y caros de volver a entrenar, por lo que no está claro si los enfoques de desaprendizaje automático pueden utilizarse con efectividad", añade Afroz.
Aunque estos modelos revolucionaron la manera en que las personas interactúan con la tecnología y automatizan ciertas tareas, es importante tener en cuenta los riesgos de privacidad que implican para proteger nuestra libertad digital. "Si es "incorrecto" que los modelos de IA aprendan de Internet sigue siendo un gran debate, pero es de esperar que veamos nuevas leyes de privacidad para proteger el control de los usuarios sobre sus datos. Mientras tanto, quien quiera experimentar las plataformas de lenguaje generativo de forma segura y responsable, no debe introducir nunca información sensible en estas herramientas", concluye Sadia.
No hay comentarios.