ChatGPT: ¿qué riesgos entraña para la ciberseguridad?

La IA generativa es empleada por los ciberdelincuentes para acelerar y mejorar sus campañas y herramientas. Además, suplantan a ChatGPT para infectar los equipos de sus víctimas u obtener un beneficio económico.

un hombre interactúa con la aplicación ChatGPT

ChatGPT puede llegar a ser una herramienta muy peligrosa en manos de los ciberdelincuentes. Getty Images.

Por Redacción.

ChatGPT se ha convertido en una popular aplicación de chatbot de inteligencia artificial (IA) especializada en el diálogo. Buena muestra de ello es que es utilizada por millones de personas a diario en todo el mundo. No obstante, advierten los expertos, la neutralidad y la ausencia de una verdadera consciencia de esta IA ha provocado que su gran potencial esté siendo empleado por la ciberdelincuencia.

IA generativa: ¿cómo es usada por los ciberdelincuentes?

Al respecto, hace tiempo que la firma israelí Check Point viene detectando cómo los ciberdelincuentes utilizan ChatGPT para acelerar y mejorar sus campañas y herramientas. Y señala que los siguientes son los principales riesgos y malos usos de la IA generativa en el ámbito de la ciberseguridad:

  • Acceso a datos o sistemas. La IA puede emplearse para crear documentos o correos electrónicos falsos que parezcan haber sido enviados por usuarios conocidos o de confianza. Y cuya finalidad es lograr acceder a información o sistemas sensibles.
  • Desinformación y propaganda. Asimismo, ChatGPT es de utilidad para crear noticias falsas y propaganda de cara a engañar y manipular a las personas.
  • Distribución de software malicioso. Mediante códigos maliciosos depurados en documentos, emails o páginas web, los ciberdelincuentes infectan con malware los equipos y dispositivos de los usuarios.
  • Ingeniería social. A través de la aplicación de chatbot es posible suplantar a personas reales con el propósito de manipularlas para que realicen alguna acción o proporcionen datos confidenciales.
  • Suplantación de identidad y difamación. De igual manera, la IA generativa facilita generar deepfakes (vídeos, imágenes y audios falsos) para realizar suplantaciones de identidad y difamaciones.

ChatGPT falso en Facebook, aplicaciones fraudulentas y anuncios falsos

Además, como ha informado Segurilatam, la compañía especializada en soluciones de ciberseguridad ha detectado ChatGPT falso en páginas y grupos en Facebook cuyo fin es propagar malware en equipos y dispositivos.

Del mismo modo, la ciberdelincuencia está creando aplicaciones fraudulentas que, al ser descargadas, infectan los celulares con troyanos bancarios como Chameleon o Cerberus.

Finalmente, se han llegado a publicar anuncios falsos en Google de la popular herramienta de IA que redirigen a los internautas a un sitio web fraudulento donde, tras hacer un ingreso económico, son estafados y no llegan a descargar la versión de pago de la aplicación de chatbot.

un hombre utiliza ChatGPT en su smartphone
La aplicación sólo debe descargarse del sitio web oficial del desarrollador o de tiendas en línea confiables. Sanket Mishra/Pexels.