Ante la vigilancia impulsada por IA, necesitamos computación confidencial descentralizada: Descubre cómo proteger tu privacidad
El siguiente es un artículo de invitado por Yannik Schrade, CEO y cofundador de Arcium.
La creciente realidad de la vigilancia masiva impulsada por IA
Cuando el CTO de Oracle AI, Larry Ellison, compartió su visión de una red global de vigilancia impulsada por IA que mantendría a los ciudadanos en su «mejor comportamiento», los críticos no tardaron en hacer comparaciones con 1984 de George Orwell y describir su propuesta de negocio como distópica. La vigilancia masiva es una violación de la privacidad, tiene efectos psicológicos negativos e intimida a las personas de participar en protestas.
Lo más inquietante de la visión de Ellison es que la vigilancia masiva impulsada por IA ya es una realidad. Durante los Juegos Olímpicos de Verano este año, el gobierno francés contrató a cuatro empresas tecnológicas: Videtics, Orange Business, ChapsVision y Wintics, para llevar a cabo vigilancia por video en París, utilizando análisis impulsados por IA para monitorear el comportamiento y alertar a la seguridad.
Privacidad vs. Seguridad Pública: El dilema ético de la vigilancia por IA
Esta política controversial fue posible gracias a la legislación aprobada en 2023 que permite a nuevos softwares de IA analizar datos del público. Mientras que Francia es el primer país de la Unión Europea en legalizar la vigilancia impulsada por IA, los análisis de video no son algo nuevo. El gobierno del Reino Unido instaló por primera vez CCTV en ciudades en la década de 1960, y en 2022, 78 de los 179 países de la OCDE estaban usando IA para sistemas de reconocimiento facial público. Se espera que la demanda de esta tecnología solo crezca a medida que la IA avanza y permite servicios de información más precisos y a mayor escala.
Los defensores de la privacidad como yo argumentaríamos que la vigilancia por video inhibe a las personas de vivir libremente y sin ansiedad. Los responsables políticos que emplean estas tácticas podrían argumentar que se están usando en nombre de la seguridad pública; la vigilancia también mantiene a las autoridades bajo control, por ejemplo, al requerir que los oficiales de policía usen cámaras corporales. La pregunta es si las empresas tecnológicas deberían tener acceso a datos públicos en primer lugar, pero también cuánta información sensible puede almacenarse y transferirse de manera segura entre múltiples partes.
Computación Confidencial Descentralizada: Una solución a la privacidad de datos de IA
El movimiento hacia la Computación Confidencial Descentralizada (DeCC) ofrece una visión de cómo abordar este problema. Muchos modelos de entrenamiento de IA, siendo Apple Intelligence un ejemplo, utilizan Entornos de Ejecución Confiables (TEEs) que dependen de una cadena de suministro con puntos únicos de fallo que requieren confianza de terceros, desde la fabricación hasta el proceso de certificación. DeCC busca eliminar esos puntos de fallo, estableciendo un sistema descentralizado y sin confianza para el análisis y procesamiento de datos.
Además, DeCC podría permitir que los datos sean analizados sin desencriptar información sensible. En teoría, una herramienta de análisis de video construida sobre una red DeCC puede alertar sobre una amenaza de seguridad sin exponer información sensible sobre individuos que han sido registrados a las partes que monitorean con esa herramienta.
- Pruebas de Conocimiento Cero (ZKPs)
- Encriptación Homomórfica Completa (FHE)
- Cálculo Multi-Partes (MPC)
Estos métodos esencialmente buscan verificar información esencial sin divulgar información sensible de ninguna de las partes. MPC ha emergido como un líder para DeCC, permitiendo un acuerdo transparente y divulgación selectiva con el mayor poder y eficiencia computacional. Los MPCs permiten construir Entornos de Ejecución Multi-Partes (MXE). Contenedores de ejecución virtual y encriptados, donde cualquier programa de computador puede ser ejecutado de manera completamente encriptada y confidencial.
En contexto, esto permite tanto el entrenamiento sobre datos altamente sensibles y aislados encriptados, como la inferencia utilizando datos encriptados y modelos encriptados. Así, en la práctica, el reconocimiento facial podría realizarse manteniendo estos datos ocultos de las partes que procesan esa información.
Los análisis recopilados de esos datos podrían compartirse entre diferentes partes relevantes, como las autoridades de seguridad. Incluso en un entorno basado en la vigilancia, se vuelve posible al menos introducir transparencia y responsabilidad en la vigilancia que se está llevando a cabo mientras se mantiene la mayoría de los datos confidenciales y protegidos.
Si bien la tecnología de computación confidencial descentralizada todavía está en etapas de desarrollo, la aparición de esta destaca los riesgos asociados con sistemas confiables y ofrece un método alternativo para encriptar datos. En este momento, el aprendizaje automático se está integrando en casi todos los sectores, desde la planificación urbana hasta la medicina, el entretenimiento y más.
Para cada uno de estos casos de uso, los modelos de entrenamiento se basan en datos de usuarios, y DeCC será fundamental para garantizar la privacidad individual y la protección de datos en el futuro. Para evitar un futuro distópico, necesitamos descentralizar la inteligencia artificial.
Preguntas Frecuentes
- ¿Qué es la Computación Confidencial Descentralizada (DeCC)?
DeCC es un enfoque que busca eliminar los puntos únicos de fallo en el análisis y procesamiento de datos, estableciendo un sistema descentralizado y sin confianza.
- ¿Cómo puede ayudar DeCC a proteger la privacidad?
DeCC puede permitir que los datos sean analizados sin desencriptar información sensible, alertando sobre amenazas de seguridad mientras mantiene la confidencialidad de la información personal.
- ¿Qué tecnologías se están probando en DeCC?
Entre las tecnologías en prueba están las Pruebas de Conocimiento Cero (ZKPs), la Encriptación Homomórfica Completa (FHE), y el Cálculo Multi-Partes (MPC).