Un reporte publicado por la plataforma Abnormal Security revela que el chatbot comercializado por Telegram no cuenta con barreras éticas, por lo que brinda recursos a los criminales para codificar, crear malware y desarrollar exploits.
El riesgo de ser víctima de un ciberdelito cometido por un hacker es bastante alto hoy en día. Ahora a la expertise orientada al mal de estos criminales se suma la ayuda de un chatbot de Inteligencia Artificial (IA), diseñado para estafar a las personas.
Según un reporte publicado por la plataforma Abnormal Security, GhostGPT es la nueva tecnología que usan los hackers. Asimismo, revela que el chatbot comercializado por Telegram no cuenta con barreras éticas, por lo que brinda recursos a los criminales para codificar, crear malware y desarrollar exploits. «También se puede utilizar para escribir correos electrónicos convincentes para estafas de compromiso de correo electrónico empresarial», recalca el informe.

¿Cómo acceden los hackers a GhostGPT?
Por medio de un bot de Telegram que puede ser usado una vez y demanda el pago de una tarifa. En tanto, no funciona como un chatbot de IA generativa convencional, ya que no se encuentra limitado por directrices que garantizan interacciones seguras y responsables. Esto genera preocupación por la facilidad con la que puede ser utilizado para cometer crímenes.
Por eso, Abnormal Security lo califica como «un chatbot diseñado específicamente para atender a ciberdelincuentes». Además, explica que ello se debe a que “puede proporcionar respuestas directas y sin filtrar a consultas sensibles o dañinas que serían bloqueadas o señaladas por los sistemas de IA tradicionales».
Principales características de GhostGPT
- Tiene tiempos de respuesta rápidos que ayudan a los hackers a crear contenido malicioso de manera eficiente.
- GhostGPT no registra la actividad de los usuarios, lo que resulta importante para quienes intentan ocultar actividades ilegales.
- Es de fácil acceso, pues puede ser adquirido vía la app de mensajería Telegram.