Firma de seguridad blockchain alerta sobre riesgo de contaminación de código por IA tras recomendación de API fraudulenta por ChatGPT de OpenAI – ¡Descubre cómo protegerte!
Yu Xian, fundador de la empresa de seguridad blockchain Slowmist, ha advertido sobre una creciente amenaza conocida como envenenamiento de código de IA. Este tipo de ataque implica la inyección de código dañino en los datos de entrenamiento de modelos de IA, lo que puede representar riesgos para los usuarios que dependen de estas herramientas para tareas técnicas.
El incidente
El problema cobró atención tras un incidente inquietante que involucró a ChatGPT de OpenAI. El 21 de noviembre, un comerciante de criptomonedas llamado «r_cky0» reportó la pérdida de $2,500 en activos digitales después de buscar la ayuda de ChatGPT para crear un bot para el generador de memecoin Pump.fun basado en Solana.
Sin embargo, el chatbot recomendó un sitio web fraudulento de API de Solana, lo que condujo al robo de las claves privadas del usuario. La víctima señaló que, en 30 minutos de utilizar la API maliciosa, todos los activos fueron drenados a una billetera vinculada al fraude.
[Nota del editor: ChatGPT parece haber recomendado la API después de realizar una búsqueda utilizando el nuevo SearchGPT, ya que se puede ver una sección de ‘fuentes’ en la captura de pantalla. Por lo tanto, no parece ser un caso de envenenamiento de IA, sino un fallo del AI para reconocer enlaces fraudulentos en los resultados de búsqueda.]
Una investigación más profunda reveló que esta dirección recibe regularmente tokens robados, reforzando las sospechas de que pertenece a un estafador.
El fundador de Slowmist señaló que el nombre de dominio de la API fraudulenta fue registrado hace dos meses, lo que sugiere que el ataque fue premeditado. Xian añadió que el sitio web carecía de contenido detallado, consistiendo solo en documentos y repositorios de código.
Aunque el envenenamiento parece deliberado, no hay evidencia de que OpenAI integrara intencionalmente datos maliciosos en el entrenamiento de ChatGPT, con el resultado probablemente proveniente de SearchGPT.
Implicaciones
La firma de seguridad blockchain Scam Sniffer señaló que este incidente ilustra cómo los estafadores contaminan los datos de entrenamiento de IA con código cripto dañino. La firma mencionó que un usuario de GitHub, «solanaapisdev», ha creado recientemente múltiples repositorios para manipular modelos de IA y generar resultados fraudulentos en los últimos meses.
Las herramientas de IA como ChatGPT, ahora utilizadas por cientos de millones, enfrentan desafíos crecientes a medida que los atacantes encuentran nuevas maneras de explotarlas.
Xian advirtió a los usuarios de criptomonedas sobre los riesgos asociados a modelos de lenguaje grande (LLM) como GPT. Enfatizó que lo que antes era un riesgo teórico, el envenenamiento de IA ahora se ha materializado en una amenaza real. Por lo tanto, sin defensas más robustas, incidentes como este podrían minar la confianza en las herramientas impulsadas por IA y exponer a los usuarios a pérdidas financieras adicionales.
Preguntas Frecuentes
- ¿Qué es el envenenamiento de código de IA?
Es un ataque que implica la inyección de código dañino en los datos de entrenamiento de modelos de IA, representando riesgos para los usuarios que dependen de estas herramientas.
- ¿Cómo afectó el incidente a los usuarios de criptomonedas?
Un comerciante perdió $2,500 en activos digitales después de que ChatGPT recomendara una API fraudulenta, lo que resultó en el robo de sus claves privadas.
- ¿Qué medidas se pueden tomar para protegerse contra estos ataques?
Xian sugirió la necesidad de defensas más robustas para evitar que estos incidentes minen la confianza en las herramientas de IA y eviten pérdidas financieras adicionales para los usuarios.