Usan ChatGPT falso para defraudar sitio
La firma de ciberseguridad ESET, alertó que ChatGPT, es utilizada por cibercriminales para robar datos bancarios, extorsiones y estafas.
Lanzada en noviembre de 2022, la herramienta de IA permite al usuario chatear casi como si fuera un humano y configurar las respuestas obtenidas para que se ajusten a lo que se busca.
También la compañía afirmó que en sitios de internet utilizando supuestamente la última versión de ChatGPT, se detectaron ataques de phishing (mensajes, correos electrónicos, redes sociales apócrifas).
"La forma de engaño es siempre la misma: simular ser un sitio real y hacer que los usuarios caigan en la trampa, aprovechando la creciente popularidad del chatbot", mencionó el jefe del laboratorio de investigación ESET Latinoamérica, Camilo Gutiérrez Amaya.
"Ya habíamos detectado el uso de falsos sitios de ChatGPT y extensiones maliciosas para navegadores, e incluso aplicaciones que distribuyen troyanos para el robo de información bancaria", añadió el directivo.
"Chat GPT 4" o "Chat GPT for Android" son los primeros lugares en busqueda de palabras que los delincuentes cibernéticos utilizaron para enganchar a sus víctimas.
La estafa empieza cuando al usuario se le solicita, a través de un correo, datos bancarios para realizar la supuesta compra por el uso de ChatGPT, alertó.
Preocupa seguridad
A medida que aumentan las amenazas por el ChatGPT, directivos de empresas a nivel global señalan su preocupación por el uso y seguridad de esta herramienta.
LAS PRINCIPALES PREOCUPACIONES QUE GENERA CHATGPT:
56% Todo lo relacionado con ciberseguridad
16% Secuestro de datos
10% Impacto a terceras personas
12%Exploración de todas las vulnerabilidades
6% Ataques a las cadenas de suministro