Segurilatam 025

/ Segundo cuatrimestre 2023 34 entrevista Ciberseguridad En la entrevista concedida a nuestra publicación, Juan Pa- blo Altmark, presidente de la Asociación Latinoamericana de Privacidad (ALAP), invita a los usuarios a ser prudentes cuando utilicen servicios de inteligencia artificial (IA) como ChatGPT. Este último “debe entenderse como una herra- mienta muy potente para agilizar los procesos de redacción de contenido, entre otros fines, pero con el cuidado que amerita una nueva tecnología”, observa. Por Bernardo Valadés. “Con ChatGPT hay que ser cautos en materia de datos personales” Presidente de la Asociación Latinoamericana de Privacidad (ALAP) Juan Pablo Altmark A lgunos observadores consideran que ChatGPT puede conllevar riesgos para los derechos y li- bertades de los usuarios en lo referen- te al tratamiento de sus datos persona- les. Al respecto, ¿cuál es la postura de ALAP? ¿Comparten dicha opinión? El motor detrás de ChatGPT es una caja negra. Para poder utilizarlo hay que es- tar registrado; es decir, que todo lo que le preguntemos podrá almacenarse, ya que el servicio responde a partir no sólo de la información con la que fue entrena- do, sino, además, con la que los propios usuarios incorporan. Una red neuronal va aprendiendo a partir de cada interac- ción y sus conocimientos van cambian- do. Y realmente, a día de hoy, tampoco se puede saber exactamente cómo llega a tomar ciertas decisiones. Actualmente hay varias investigacio- nes oficiales en marcha. Habrá que ver si alguna analiza seriamente la comple- jidad técnica de este tipo de sistemas y cómo impacta a la transparencia reque- rida por las leyes más modernas de pro- tección de datos. Sí creo que hay que ser sumamente cautos y, en la medida de lo posible, no incorporar datos personales en este tipo de herramientas. Si ChatGPT entraña riesgos para la pri- vacidad, ¿cómo no se han detectado desde el origen? En este sentido, ¿es necesario mejorar la normativa o los controles para evitar que se comercia- lice un producto que puede suponer un riesgo para los datos personales de los usuarios? El problema principal es que la empre- sa que desarrolló ChatGPT, OpenAI, se encuentra en Estados Unidos, donde no existe una ley federal de protección de datos que imponga requisitos de privaci- dad por diseño y por defecto, como sí lo hace el Reglamento General de Protec-

RkJQdWJsaXNoZXIy MTI4MzQz