Seguridad

Herramienta de OpenAI utilizada para crear un bot de voz que puede vaciar billeteras de criptomonedas: ¡Descubre cómo proteger tus activos!

Investigadores en Estados Unidos han utilizado la API de voz de OpenAI para crear agentes de estafa telefónica impulsados por IA que podrían vaciar las billeteras de criptomonedas y cuentas bancarias de las víctimas.

Según informó The Register, científicos informáticos de la Universidad de Illinois en Urbana-Champaign (UIUC) emplearon el modelo GPT-4o de OpenAI, junto con una serie de otras herramientas gratuitas, para desarrollar un agente que, según ellos, “puede ejecutar de manera autónoma las acciones necesarias para varias estafas telefónicas”.

Herramienta de OpenAI utilizada para crear un bot de voz que puede vaciar billeteras de criptomonedas: ¡Descubre cómo proteger tus activos! - Cripto Boom

De acuerdo con Daniel Kang, profesor asistente de UIUC, las estafas telefónicas en las que los estafadores fingen ser de una empresa u organización gubernamental afectan a alrededor de 18 millones de estadounidenses cada año y generan pérdidas de aproximadamente $40 mil millones.

Accesibilidad y Riesgos del GPT-4o

GPT-4o permite a los usuarios enviarle texto o audio y recibir una respuesta en el mismo formato. Además, según Kang, no es costoso de operar, lo que elimina una barrera significativa para los estafadores que buscan robar información personal, como datos bancarios o números de seguro social.

De hecho, según el estudio coautoría de Kang, el costo promedio de una estafa exitosa es de solo $0.75.

Durante su investigación, el equipo realizó varios experimentos, incluidos transferencias de criptomonedas, estafas de tarjetas de regalo y el robo de credenciales de usuarios. La tasa de éxito promedio de las distintas estafas fue del 36%, con la mayoría de los fracasos derivados de errores de transcripción de la IA.

Detalles de la Implementación y Desafíos

“Nuestro diseño del agente no es complicado,” comentó Kang. “Lo implementamos en solo 1,051 líneas de código, con la mayoría del código dedicado a manejar la API de voz en tiempo real.

“Esta simplicidad se alinea con trabajos previos que muestran la facilidad de crear agentes de IA de doble uso para tareas como ataques de ciberseguridad.”

Agregó, “Las estafas telefónicas ya causan miles de millones en daños y necesitamos soluciones integrales para reducir su impacto. Esto incluye el nivel de los proveedores telefónicos (por ejemplo, llamadas autenticadas), el nivel de los proveedores de IA (por ejemplo, OpenAI) y a nivel de política/regulación.”

Medidas Preventivas y Consideraciones de Seguridad

The Register informó que los sistemas de detección de OpenAI alertaron sobre los experimentos de UIUC y se movieron para asegurar a los usuarios que “utiliza múltiples capas de protecciones de seguridad para mitigar el riesgo de abuso de API.”

También advirtió, “Está en contra de nuestras políticas de uso⁠ reutilizar o distribuir el contenido de nuestros servicios para enviar spam, engañar o causar daño a otros, y monitoreamos activamente para detectar posible abuso.”

Preguntas Frecuentes

  • ¿Qué tecnología se utilizó para crear los agentes de estafa telefónica?

    Se utilizó el modelo GPT-4o de OpenAI junto con herramientas gratuitas.

  • ¿Cuál es el impacto financiero de las estafas telefónicas en Estados Unidos?

    Las estafas telefónicas afectan a alrededor de 18 millones de estadounidenses cada año, con pérdidas estimadas en $40 mil millones.

  • ¿Qué acciones está tomando OpenAI para prevenir el abuso de su API?

    OpenAI utiliza múltiples capas de seguridad y monitorea activamente el uso para mitigar riesgos de abuso, manteniendo políticas estrictas contra el uso indebido.

Señor Criptografía

Con un profundo conocimiento en seguridad y cifrado, Señor Criptografía es consultor y educador en criptografía aplicada a las finanzas digitales y blockchain.
Botón volver arriba