Writen by
Adolfina Mejia
julio 26, 2023
-
0
Comments
Santo Domingo, Republica Dominicana. Así como el chatbot de OpenAI sigue sumando adeptos, también es usada por los cibercriminales para engañar con aplicaciones, sitios, o extensiones falsas que solo buscan robar información sensible para cometer estafas. El equipo de investigación de ESET, compañía líder en detección proactiva de amenazas, detectó una nueva campaña de un sitio de phishing que está activa a la espera de usuarios que busquen la última versión de Chat GPT.
“Ya habíamos detectado desde ESET el uso de falsos sitios de ChatGPT, y extensiones maliciosas para navegadores, e incluso aplicaciones que distribuyen troyanos para el robo de información bancaria. La forma de engaño es siempre la misma: simular ser un sitio real y hacer que los usuarios caigan en la trampa, aprovechando la popularidad creciente del chatbot”, menciona Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación ESET Latinoamérica.
En este caso, ESET detectó que en una búsqueda general de Google “Chat GPT 4”, o “Chat GPT for Android”, uno de los primeros resultados que pueden aparecer, y dar impresión de ser original, lleva a una url falsa: chatgptui.com que, hasta el momento de enviar esta información, sigue activa.
Si se ingresa al link falso, el usuario desprevenido encontrará una web bastante bien construida que usa el logo correcto, aunque es muy distinta a la original. También utiliza logos de empresas que usan el servicio real para darle un matiz de veracidad a la página falsa.
Al hacer clic en “get started”, se observa que el sitio solicita datos de registro que no son validados: no es necesario que llegue un mail de confirmación y validación, algo necesario en la mayoría de los servicios legítimos.
En este caso, no es del interés del grupo cibercriminal la dirección de correo electrónico. El interés llega en el momento que se cree estar realizando la suscripción a la versión paga del CHAT GPT con los datos de la tarjeta de crédito y el pago por el servicio falso.
No hay comentarios
Publicar un comentario