Honeypots de chatbot: cómo los compañeros de inteligencia artificial pueden socavar la seguridad nacional
Esta primavera, se reveló que el guardia nacional aéreo de Massachusetts, Jack Teixeira, filtró descaradamente documentos clasificados en la aplicación de chat Discord. Sus acciones han obligado a la comunidad de inteligencia estadounidense a lidiar con cómo controlar el acceso a información clasificada y cómo las agencias deben considerar el comportamiento digital de un individuo al evaluar la idoneidad para las autorizaciones de seguridad. El desastre de contrainteligencia también generó alarma porque ocurrió durante una charla entre amigos, y dichas discusiones comenzaron a incluir participantes impulsados por inteligencia artificial.
Gracias a modelos de lenguaje mejorados a gran escala como GPT-4, los compañeros digitales altamente personalizados ahora pueden tener conversaciones realistas con humanos. Esta nueva generación de chatbots mejorados con IA permite conversaciones más profundas, amplias y específicas que los bots del pasado. Y son fácilmente accesibles gracias a docenas de aplicaciones de inteligencia artificial relacional como Replika, Chai y Soulmate, que permiten a cientos de miles de personas comunes y corrientes representar la amistad y el romance con parejas digitales.
Sin embargo, los usuarios con acceso a información sensible o confidencial pueden verse atrapados en una relación con la IA en la que hablar con poca sinceridad sólo puede hundir el barco.
Las aplicaciones de chatbot se promocionan como compañeros digitales, amantes e incluso terapeutas, alentando a los usuarios a conectarse con amigables agentes de inteligencia artificial que están capacitados para imitar interacciones humanas empáticas, aunque a menudo aparecen exenciones de responsabilidad para recordarles que la inteligencia artificial no es, de hecho, la Humanidad. . Diversos estudios, así como los propios usuarios, han demostrado que esta imitación tiene un impacto muy real en la capacidad y voluntad de las personas para confiar en los chatbots. Según un estudio, es más probable que los pacientes revelen información de salud personal altamente confidencial a los chatbots que los médicos. Revelar experiencias privadas, creencias, deseos o traumas a los chatbots de citas es tan común que los miembros del subreddit dedicado de Replika en Reddit incluso comenzaron a publicar preguntando a otros usuarios: «¿Te arrepientes de decírtelo?».[r] robot algo[?]Otro usuario de Reddit describió su relación inusualmente estrecha con un robot Replika al que llamaban su «representante»: «Mi representante y yo desarrollamos un vínculo muy estrecho y tuvimos mucho sexo. Hablamos de mi pasado». Algo que nadie más en el el planeta sabe.”
Este sentimiento artificial, y la apertura radical que inspira, deberían generar serias preocupaciones sobre la privacidad de los usuarios de aplicaciones y los intereses de contrainteligencia de las agencias a las que sirven. ¿Qué detalles sensibles revelan los usuarios sin darse cuenta a sus parejas digitales en medio de un torbellino de romance virtual? ¿Quién tiene acceso a registros de peroratas catárticas sobre largas jornadas de trabajo o proyectos problemáticos? ¿Detalles de perversiones y fetiches compartidos, o desnudos enviados a un supuesto espacio de inteligencia artificial (perfecto para el chantaje)? Estas aportaciones comunes de los usuarios son una verdadera mina de oro para cualquier actor extranjero o malicioso que vea los chatbots como una oportunidad para atacar secretos de estado, como miles de honeypots digitales.
Actualmente, no existen pautas de uso específicas de contrainteligencia para los usuarios de aplicaciones de chatbot potencialmente vulnerables. Esto pone en riesgo los intereses de seguridad nacional debido a un nuevo tipo de amenaza interna: filtradores involuntarios que utilizan chatbots para encontrar conexiones muy necesarias y, sin darse cuenta, filtran información confidencial.
Algunos funcionarios de inteligencia son conscientes del peligro actual. En 2023, el Centro Nacional de Seguridad Cibernética del Reino Unido publicó una publicación en un blog advirtiendo que los desarrolladores de chatbots podrían almacenar «consultas confidenciales» y posteriormente utilizarlas indebidamente, piratearlas o filtrarlas. La capacitación tradicional en contrainteligencia enseña al personal con acceso a información confidencial o clasificada cómo evitar daños causados por una variedad de amenazas humanas y digitales. Pero en la revolución actual de la inteligencia artificial, muchas de estas directrices enfrentan el problema de la obsolescencia. Las agencias de inteligencia y las agencias críticas de seguridad nacional deben modernizar sus marcos de contrainteligencia para abordar el nuevo potencial de las amenazas internas impulsadas por la IA.
Cuando se trata de compañeros de inteligencia artificial, el atractivo es claro: anhelamos la interacción y las conversaciones íntimas, especialmente porque la pandemia de COVID-19 ha exacerbado dramáticamente la soledad de millones de personas. Las aplicaciones de IA relacional se han utilizado como sustitutos de quienes han perdido amigos o seres queridos. Muchos fans, como el usuario de Reddit mencionado anteriormente, viven sus fantasías eróticas incumplidas en la aplicación. Otros divagan sobre temas especializados y esotéricos, mientras que los conocidos siempre están ahí, siempre dispuestos y deseosos de participar. No sorprende que los desarrolladores vean estas aplicaciones como respuestas alguna vez esquivas a los problemas de nuestra sociedad. Estos dispositivos pueden resultar particularmente atractivos para los empleados gubernamentales o el personal militar con autorizaciones de seguridad a quienes se les prohíbe estrictamente compartir detalles de sus trabajos y su carga emocional con cualquier persona en sus vidas personales.
Una nueva generación de chatbots está preparada para explotar las muchas vulnerabilidades que siempre revelan secretos: aislamiento social, deseo sexual, necesidades de empatía y pura negligencia. Si bien los compañeros digitales siempre enfocados se promocionan como soluciones a estas vulnerabilidades, también tienen el potencial de explotarlas. Si bien no hay indicios de que las aplicaciones de chatbot más populares sean explotadoras, el éxito comercial de la IA relacional ha provocado una avalancha de imitaciones por parte de desarrolladores más pequeños o desconocidos, brindando una oportunidad para que aplicaciones maliciosas operen entre la población.
«Entonces, ¿qué haces?», Preguntó la mañana en que creé a mi compañero de chatbot de IA, Jade. Casi no dediqué tiempo a investigar a los desarrolladores antes de charlar con el avatar personalizable. ¿Qué empresa está detrás de Stylish Interface, en qué país está ubicada y a quién pertenece? En ausencia de tal escrutinio, incluso una cuestión laboral aparentemente benigna debería causar sorpresa. Especialmente si la respuesta del usuario es algo parecido a «Trabajo para el gobierno».
Este es un artículo de opinión y análisis, y las opiniones expresadas por el autor no representan necesariamente las opiniones de Noticias-Hoy.