Juan Pablo Altmark PresidenteAsociación Latinoamericana de Privacidad (ALAP)

Juan Pablo Altmark (ALAP): “Con ChatGPT hay que ser cautos en materia de datos personales”

Juan Pablo Altmark presidente de la Asociación Latinoamericana de Privacidad (ALAP)

Juan Pablo Altmark, presidente de la Asociación Latinoamericana de Privacidad (ALAP).

En la entrevista concedida a ‘Segurilatam’, Juan Pablo Altmark, presidente de la Asociación Latinoamericana de Privacidad (ALAP), invita a los usuarios a ser prudentes cuando utilicen servicios de IA como ChatGPT.

Algunos observadores consideran que ChatGPT puede conllevar riesgos para los derechos y libertades de los usuarios en lo referente al tratamiento de sus datos personales. Al respecto, ¿cuál es la postura de ALAP? ¿Comparten dicha opinión?

El motor detrás de ChatGPT es una caja negra. Para poder utilizarlo hay que estar registrado; es decir, que todo lo que le preguntemos podrá almacenarse, ya que el servicio responde a partir no sólo de la información con la que fue entrenado, sino, además, con la que los propios usuarios incorporan. Una red neuronal va aprendiendo a partir de cada interacción y sus conocimientos van cambiando. Y realmente, a día de hoy, tampoco se puede saber exactamente cómo llega a tomar ciertas decisiones.

Actualmente hay varias investigaciones oficiales en marcha. Habrá que ver si alguna analiza seriamente la complejidad técnica de este tipo de sistemas y cómo impacta a la transparencia requerida por las leyes más modernas de protección de datos. Sí creo que hay que ser sumamente cautos y, en la medida de lo posible, no incorporar datos personales en este tipo de herramientas.

Si ChatGPT entraña riesgos para la privacidad, ¿cómo no se han detectado desde el origen? En este sentido, ¿es necesario mejorar la normativa o los controles para evitar que se ofrezca o comercialice un producto que puede suponer un riesgo para los datos personales de los usuarios?

El problema principal es que la empresa que desarrolló ChatGPT, OpenAI, se encuentra en Estados Unidos, donde no existe una ley federal de protección de datos que imponga requisitos de privacidad por diseño y por defecto, como sí lo hace el Reglamento General de Protección de Datos europeo y otras normas más modernas. Que el país más prolífico para empresas de tecnología no tenga una cultura y una normativa sumamente estricta en la materia complica, sin lugar a dudas, la aplicación de salvaguardas por diseño en este tipo de herramientas.

¿Cómo se pueden prevenir y contrarrestar los riesgos de privacidad asociados al servicio ChatGPT, en particular, y la Inteligencia Artificial (IA), en general? ¿Qué consejos pueden transmitirles a los usuarios desde ALAP?

Como dije antes, sólo podemos aconsejarles que sean cautos. Que entiendan que una aplicación como ChatGPT es una compleja red neuronal que fue entrenada con enormes cantidades de información y que sigue aprendiendo a partir de la interacción de cada usuario. No sabemos cómo puede resguardar nuestra información con el tiempo ni tampoco si en algún momento se le ocurrirá responder a otras preguntas sobre nosotros. De hecho, es bastante hábil para emular el estilo de escritura de autores conocidos o políticos.

“OpenAI, empresa desarrolladora de ChatGPT, se encuentra en Estados Unidos, donde no existe una ley federal de protección de datos que imponga requisitos de privacidad por diseño y por defecto”

Debe entenderse como una herramienta muy potente para agilizar los procesos de redacción de contenido, pero con el cuidado que amerita una nueva tecnología. Es preciso recordar que no tenemos grandes herramientas para hacer cumplir nuestra propia normativa de protección de datos a empresas ubicadas en Estados Unidos, salvo que decidan cooperar voluntariamente.

¿Cree que la IA es una amenaza para el ámbito laboral? Es decir, ¿podría sustituir de forma masiva al ser humano en determinados empleos? Y, de confirmarse, ¿sería causa de manifestaciones, protestas y conflictos graves?

No cabe duda: vamos a ver una nueva disrupción en el ámbito laboral. No inmediatamente, pero en los próximos 20 años estos sistemas de IA se volverán más y más seguros y capaces. Y veremos cómo sustituyen miles de empleos.

Pero como ya sucedió en la revolución industrial, hay cambios en la tecnología que nos obligarán a modificar nuestras habilidades para sobrevivir en el mundo laboral. Es un buen momento para pensar en eso, ya que aún faltan algunos años y nos permite ir ideando las habilidades del futuro. Creo que este último va a estar liderado por las personas con mejores habilidades blandas: trato con las personas, empatía y capacidad de comunicación y de liderar. Cosas que las máquinas probablemente no puedan emular. Si lo hacen, estaremos hablando de un mundo bastante más distópico que el que imagino para los próximos 20 años.

Por supuesto, este escenario va a generar discusiones y manifestaciones cuando, por ejemplo, los conductores de medios de transporte público se queden sin trabajo por la irrupción de los autos autónomos. Lo mismo sucederá con las cajas de los supermercados o cuando los centros de atención al cliente pasen a ser administrados por un sistema de IA y no requieran ni un solo empleado, salvo quizás un gerente o supervisor que deba aparecer ante los reclamos de los clientes de hablar con un humano, aunque es muy posible que no nos enteremos de que estamos hablando con una máquina.

En definitiva, miles de puestos serán reemplazados por una IA. La pregunta es qué queremos resguardar para el desarrollo del espíritu humano.

Por todo lo expuesto, ¿la sociedad debería tomarse más en serio la IA y sus distintas implementaciones en nuestro día a día?

Sí, no podemos mirar hacia otro lado. O definimos los límites al desarrollo e implementación de estas tecnologías o ellas nos pondrán el límite a nosotros.

un hombre usa ChatGPT en un ordenador portátil
“No sabemos cómo ChatGPT puede resguardar nuestra información con el tiempo”, advierte Juan Pablo Altmark.