Billetera de usuario Solana explotada en primer caso de ataque de envenenamiento de IA: Descubre más
Los métodos para inyectar enlaces maliciosos están en aumento y parece que incluso se han extendido a los chats de inteligencia artificial. En este caso, el bot de IA propuso servicios de API fraudulentos, lo que resultó en pérdidas para los usuarios.
ChatGPT vinculado a enlaces contaminados
Un usuario descubrió que ChatGPT no es tan consciente de la seguridad como esperaba, especialmente con enlaces relacionados con criptomonedas, cuando intentó crear una simple aplicación de criptografía, un potenciador de tokens para Pump.fun. El enlace de API que ChatGPT proporcionó estaba contaminado y condujo a una pérdida inmediata.
El potenciador de tokens se conectó a la API defectuosa, que terminó solicitando la clave privada de la billetera y sustrayendo todos sus activos. Este incidente sirve como un recordatorio oportuno de que las herramientas de inteligencia artificial no son completamente confiables en lo que respecta a la seguridad en Web3.
Sitio de API falso roba SOL
El sitio de API falso ha estado ocupado sustrayendo SOL de múltiples billeteras. El destino del explotador ya ha realizado 281 transacciones. Aunque la mayoría de las sumas fueron relativamente pequeñas, todas las billeteras utilizadas fueron comprometidas.
Los rumores de ataques de envenenamiento de IA han existido por un tiempo, pero el ataque reciente es la primera explotación completa en el espacio cripto. El fundador de la empresa de seguridad en cadena SlowMist corroboró la historia, afirmando que la explicación más probable es que el usuario estaba experimentando con IA sin verificar el código. El producto final fue un bot funcional con una puerta trasera cuidadosamente disfrazada.
Ataca a comerciantes de tokens meme
El explotador utilizó su enlace de API para robar algunos de los tokens meme más recientes y almacenarlos en una billetera identificada. El botín incluía USDC, SOL, además de ELIZA, CHILLGIRL y AI16Z.
El sitio también actuó extremadamente rápido después de cada conexión. Se desconoce quién más realizó la llamada al sitio de la API falsa, que llegó a los datos de OpenAI. Una posible explicación es que ChatGPT accede a código Python de varios repositorios, lo que puede usarse para contaminar sus datos disponibles. Al final, la intención de robar datos de billeteras proviene de un agente humano. La inteligencia artificial es solo una herramienta de amplificación.
El código creado por el propio ChatGPT generó una parte que solicitaba la clave privada. Según ScamSniffer, los explotadores sembraron deliberadamente código en Python generado por IA, que los usuarios implementarían para adquirir nuevos tokens de Pump.fun.
Confiar en el código fue el primer error, ya que los usuarios rápidamente exigieron bots de comercio de Moonshot o Pump.fun. Algunos de los repositorios aún están activos, mientras que otros han sido reportados. No hay nada que impida a los usuarios intentar usar los bots. Los repositorios de un usuario llamado Solanaapisdev aún contienen bots de comercio riesgosos, que pueden terminar vaciando billeteras.
Resguardarse de APIs defectuosas
No se sabe quién creó el bot, pero la prisa por los tokens meme fue suficiente para que usuarios desprevenidos cayeran en estos bots de trading maliciosos. La mejor estrategia es evitar el uso de repositorios desconocidos, o al menos revisar el código lo mejor posible.
Peor aún, las APIs defectuosas también fueron promovidas en un artículo de Medium, llevando a una página de documentación con el mismo nombre que el repositorio de GitHub defectuoso. El código disponible se promociona a usuarios finales que quieren automatizar el proceso en Jupiter, Raydium, Pump.fun y Moonshot.
Mientras que algunos servicios pueden limitar enlaces defectuosos, hay poco que hacer cuando los usuarios finales han decidido arriesgar sus billeteras con código no verificado. Con más de 69K nuevos tokens meme lanzados, la necesidad y avaricia por adquisiciones rápidas han sentado las bases para un nuevo tipo de explotación. OpenAI no ha mencionado cómo ChatGPT fue entrenado para crear el código de bot arriesgado.
Evolucionan las estafas de enlaces de Zoom
Otro ataque elaborado está evolucionando al mismo tiempo que la explotación de la API. El enlace falso de Zoom que descarga malware también ha cambiado. El servicio, anteriormente conocido como Meeten, ahora se está difundiendo como Meetio, instando a los usuarios a descargar archivos. El malware también utiliza elementos de ingeniería social, como contactar a influencers de criptomonedas o conocidos grandes poseedores.
Recientemente, uno de los exploits de reuniones falsas de Zoom vació la billetera de un influencer, lo que provocó una caída en el precio del token GIGA. La recomendación en cada caso es almacenar las billeteras y las claves privadas en un dispositivo diferente al utilizado para conexiones más riesgosas. Para las provisiones de tokens y otras conexiones, la mejor estrategia es usar una billetera recién asignada.
- ¿Qué riesgos presenta usar APIs no verificadas en criptomonedas? Utilizar APIs no verificadas puede llevar a la pérdida de activos, ya que pueden solicitar claves privadas y comprometer las billeteras.
- ¿Cómo protegerse de los bots de trading maliciosos? Evite usar repositorios desconocidos y revise el código minuciosamente. Use billeteras separadas para conexiones riesgosas.
- ¿Qué medidas de seguridad son recomendables al usar IA en criptografía? Siempre verifique el código generado por IA y evite compartir claves privadas. Almacene las billeteras en dispositivos diferentes para mayor seguridad.