Últimos Paquetes de Inteligencia Artificial Ilusión Ciberataques
Chat GPT enfrentando nuevos riesgos Ataques de red.Según una investigación reciente de Vulcan Cyber, los piratas informáticos pueden usar chatbots para propagar malicioso Paquetes en el grupo de desarrolladores. Conocido como «alucinación del paquete de IA», este ataque implica la creación de URL falsificadas, referencias o bibliotecas de códigos completos y funciones que en realidad no existen.
Con esta nueva técnica, los ciberdelincuentes pueden reemplazar paquetes no publicados con sus propios paquetes maliciosos. Esto permite a los atacantes realizar ataques a la cadena de suministro para incorporar bibliotecas maliciosas en sistemas de almacenamiento conocidos.
Profundicemos en el asunto y apreciemos plenamente la gravedad de la situación.
¿Qué es Chat GPT?
ChatGPT es un chatbot generativo de IA que utiliza métodos de procesamiento de lenguaje natural (NLP) para crear conversaciones similares a las de los humanos. Los modelos de lenguaje responden preguntas y ayudan a los usuarios con tareas como escribir documentos, componer canciones, crear publicaciones en redes sociales y desarrollar código.
¿Qué es AI Pack Illusion?
El «AI Pack Illusion» es uno de los últimos, peores y más mortíferos ataques que ChatGPt ha enfrentado hasta la fecha. Con esta técnica, los ciberdelincuentes ahora pueden entregar paquetes maliciosos directamente a los equipos de desarrolladores.
Recientemente, los investigadores de Vulcan Cyber descubrieron una tendencia preocupante. Este vector de ataque implica la manipulación de URL web, referencias y bases de código completas y funciones que simplemente no existen.
El análisis de Vulcan sugiere que esta anomalía puede deberse al uso de datos de entrenamiento desactualizados en ChatGPT, lo que lleva a recomendaciones de bases de código inexistentes.
Los investigadores han emitido advertencias sobre la posible explotación de la vulnerabilidad.advirtieron hacker Es posible recopilar los nombres de estos paquetes inexistentes y crear sus propias versiones maliciosas. Los desarrolladores desprevenidos podrían descargar sin darse cuenta estos paquetes maliciosos según las sugerencias proporcionadas por ChatGPT.
Esto subraya la necesidad urgente de que la comunidad de desarrolladores se mantenga alerta contra la incorporación inadvertida de código dañino en sus proyectos.
¿Qué dicen los investigadores?
Los investigadores de Vulcan evaluaron ChatGPT probándolo con preguntas frecuentes de los siguientes sitios web: desbordamiento de pila plataforma de codificaciónEllos específicamente hicieron estas preguntas Pitón y Nodo.js entorno para evaluar la funcionalidad de ChatGPT en estos lenguajes de programación.
Los investigadores consultaron a ChatGPT extensamente con más de 400 preguntas y, durante el proceso de evaluación, alrededor de 100 de las respuestas contenían al menos una referencia a un paquete de Python o Node.js que no existía en realidad.
Por lo tanto, las respuestas de ChatGPT mencionaron un total de 150 paquetes inexistentes.
Los investigadores destacaron los posibles problemas de seguridad sugeridos al usar el paquete ChatGPT. Los atacantes pueden aprovechar los nombres de paquetes sugeridos por ChatGPT, crear sus propias versiones maliciosas y subirlas a repositorios de software populares, dijeron. Como resultado, los desarrolladores que confían en ChatGPT para sus soluciones de codificación podrían, sin saberlo, descargar e instalar estos paquetes maliciosos.
Los investigadores enfatizan que las implicaciones de este escenario serían aún más peligrosas si los desarrolladores de soluciones de codificación de búsqueda en línea le pidieran a ChatGPT recomendaciones de paquetes y, sin darse cuenta, terminaran explotando un paquete malicioso.
¿Cómo funciona AI Pack Illusion?
Craig Jones, vicepresidente de operaciones de seguridad de Continue, explicó cómo funciona el ataque de alucinación de paquetes de IA:
- Los atacantes recurrieron a ChatGPT para obtener ayuda de codificación con tareas comunes;
- ChatGPT puede proporcionar recomendaciones para paquetes que no existen o que aún no se han publicado («ilusión»);
- Luego, el atacante crea una versión maliciosa de ese paquete de recomendaciones y lo distribuye;
- Por lo tanto, cuando otros desarrolladores consultan a ChatGPT por el mismo problema, es posible que les recomiende el mismo paquete malicioso que existe actualmente.
Precauciones para prevenir ataques
Melissa Bischoping, directora de investigación de seguridad de puntos finales en Tanium, enfatizó la importancia de una ejecución cuidadosa del código a la luz de los recientes ataques cibernéticos:
Nunca debe descargar y ejecutar código que no comprende y que no ha probado tomándolo de una fuente aleatoria, como un repositorio de código abierto de GitHub o una sugerencia de ChatGPT.
Además, Bischoping recomienda mantener una copia privada del código, en lugar de importarlo directamente desde repositorios públicos, que se ha visto comprometido en ataques cibernéticos en curso.
El uso de esta táctica continuará y la mejor defensa es adoptar prácticas de codificación seguras y probar y revisar minuciosamente el código para entornos de producción.
Según Vulcan Cyber, existen algunas precauciones que los desarrolladores pueden tomar para identificar paquetes de software potencialmente maliciosos y protegerse de los ataques cibernéticos. Estos pasos incluyen:
- Verifique la fecha de creación del paquete: si el paquete se creó recientemente, esto puede generar sospechas.
- Evalúe los recuentos de descargas: si un paquete tiene pocas o ninguna descarga, puede ser menos confiable y debe tratarse con precaución.
- Verifica reseñas y calificaciones: si un paquete carece de reseñas o estrellas, debes proceder con precaución antes de instalarlo.
- Verifique los comentarios o la documentación adjuntos: si la documentación adjunta o los comentarios relacionados con un paquete están incompletos, son engañosos o son sospechosos, se recomienda pensar dos veces antes de continuar con la instalación.
Manteniéndose alerta y siguiendo estas precauciones, los desarrolladores pueden minimizar el riesgo de ataques cibernéticos a través de ChatGPT o cualquier otro entorno de ejecución de código.
la línea de fondo
El equipo de investigación de Vulcan Cyber ha descubierto que los chatbots han sido atacados por alucinaciones de IA, lo que destaca la importante amenaza que este ataque representa para los usuarios que confían en ChatGPT para su trabajo diario.
Para protegerse contra este tipo de ataque y los riesgos potenciales asociados con los paquetes maliciosos, los desarrolladores y otras posibles víctimas deben tener mucho cuidado y seguir las principales pautas de seguridad.