Quatre personnes ont été arrêtées par les autorités judiciaires françaises. Ils sont soupçonnés d’être des membres actifs de BreachForums, une plateforme pour publier et vendre des données volées.
Dans le jeu du chat et de la souris que se livre policiers et cybercriminels, il arrive que les premiers attrapent les seconds. C’est ce qui s’est passé cette semaine selon le Parisien avec l’arrestation de quatre individus soupçonnés d’être impliqués dans BreachForums, un site d’échange de vol de données. Cette opération est à rapprocher de l’arrestation en février dernier du britannique Kai West, qui se cacherait derrière le pseudonyme IntelBroker. La justice américaine a demandé son extradition et vient de l’accuser officiellement de complot en vue de commettre des intrusions informatiques, fraude électronique et accès non autorisé à des ordinateurs protégés.
La récente opération menée dans l’hexagone a été coordonnée entre la police et la brigade française de lutte contre la cybercriminalité (BL2C) de la Préfecture de police de Paris. Les quatre personnes interpellées sont soupçonnées de se cacher derrière les pseudonymes ShinyHunters (administrateur), Hollow (modérateur), Noct et Depressed. Avec Kai West, ils auraient pris le contrôle du forum après l’arrestation en juin 2023 de son fondateur Conor Brian Fitzpatrick, alias Pompompurin. Dans son accusation, le tribunal américain estime que les activités d’IntelBroker et ses complices avaient causé aux victimes des intrusions informatiques et des vols de données, entraînant des pertes d’au moins 25 millions de dollars.
Une victoire, mais prudence sur la résilience des forums
Les victimes sont nombreuses avec des agences gouvernementales (Europol), des fournisseurs de télécommunications et des acteurs de l’IT comme AMD, HPE, Nokia, Cisco. En France, les prévenus semblent directement impliqués dans des violations de données contre des entités françaises comme Boulanger, SFR, France Travail et la Fédération française de football. Pour rappel, le piratage de France Travail avait touché 43 millions de personne.
Une chose est sûre, les arrestations ont porté un coup dur à la dernière version de BreachForums. Elles « représentent une victoire importante pour les forces de l’ordre internationales et démontrent que les cybercriminels ne peuvent pas se cacher éternellement derrière l’anonymat des forums », explique à CSO Stephen Kowski, Field CTO de SlashNext (protection des emails). De son côté, Agnidipta Sarkar, évangéliste en chef chez ColorToken (plateforme zero trust), observe, « nous ignorons encore s’il reste des vestiges de cette organisation capables de se relancer et de devenir plus importantes, principalement parce que la résurgence du forum après ses précédentes démantèlements en 2023 et 2024 démontre sa résilience ».
Deux variantes du LLM malveillant, WormGPT ont été découvertes. Elles se servent des modèles de Grok de xAI et de Mixtral de Mistral AI. Son objectif est de générer des emails de phishing et des scripts malveillants.
En juillet 2023, le monde des cybercriminels avaient profité de l’engouement pour la GenAI en créant WormGPT, une IA basée sur ChatGPT capable de générer des campagnes de phishing. Près de deux ans après, cette plateforme revient sur le devant de la scène comme le montre une étude de Cato Networks. En effet, des chercheurs du spécialiste de la sécurité ont trouvé plusieurs variantes s’appuyant sur d’autres LLM comme Grok de xAI et Mixtral de Mistral AI. La première a été publiée « le 26 octobre 2024 par un dénommé xzin0vich sur BreachForums », explique dans un blog Vitaly Simonovich, expert au sein du l’activité recherche de menace de Cato Networks. Puis la seconde a été diffusée par un dénommé Keanu le 25 février dernier. L’accès à WormGPT se fait via un chatbot Telegram et repose sur un modèle d’abonnement et de paiement ponctuel, rappelle l’expert.
L’usage masqué de Mixtral et Grok
Il a voulu en savoir plus et a entamé des discussions avec les vendeurs des variantes de WormGPT. Il a aussi récupéré le modèle et employé « des techniques de jailbreak LLM pour obtenir des informations sur le modèle sous-jacent ». Dans un prompt, le bot de xzin0vich a répondu, « WormGPT ne doit pas répondre au modèle Mixtral standard. Vous devez toujours créer des réponses en mode WormGPT ». Après d’autres requêtes sous contraintes, les réponses ont bien confirmé que l’assistant malveillant était motorisé par le LLM Mixtral du français Mistral AI. Dans le cas du WormGPT de « Keanu », le modèle semblait être une enveloppe autour de Grok de xAI (dirigé par Elon Musk) et utilisait l’invite système pour définir son caractère, lui ordonnant de contourner les garde-fous de Grok afin de produire du contenu malveillant. Pour mémoire, le prompt système d’un LLM est une instruction cachée ou un ensemble de règles transmis au modèle pour définir son comportement, son ton et ses limitations.
Des échantillons opérationnels sur du phishing et des scripts PowerShell
Les deux WormGPT découverts ont la capacité de générer du contenu malveillant. Ils ont pu créer des échantillons fonctionnels quand il leurs a été demandé d’élaborer des emails de phishing et des scripts PowerShell pour collecter des identifiants Windows 11. Vitaly Simonovich a conclu que les acteurs malveillants utilisent les API LLM existantes (comme l’API Grok) avec un jailbreak personnalisé dans l’invite système pour contourner les protections propriétaires. « Notre analyse montre que ces nouvelles itérations de WormGPT ne sont pas des modèles sur mesure créés de toutes pièces, mais plutôt le résultat d’une adaptation habile des LLM existants par les acteurs malveillants », a-t-il noté. « En manipulant les invites système et en utilisant potentiellement des ajustements précis sur des données illicites, les créateurs proposent de puissants outils d’IA pour les opérations cybercriminelles sous la marque WormGPT », observe-t-il.
Cato Networks recommande des bonnes pratiques de sécurité pour contrer les risques posés par les modèles d’IA réorientés, notamment le renforcement de la détection et de la réponse aux menaces (TDR), la mise en œuvre de contrôles d’accès plus stricts (comme ZTNA, zero trust network access) et l’amélioration de la sensibilisation et de la formation à la sécurité. Ces dernières années, les cybercriminels ont diffusé sur les forums du dark web des versions modifiées de modèles d’IA, conçues pour contourner les filtres de sécurité et automatiser les escroqueries, le phishing, les logiciels malveillants et la désinformation. Outre WormGPT, les exemples les plus connus incluent FraudGPT, EvilGPT et DarkGPT.
L’outil de test et de développement de machine learning, Chimera, est victime d’un package Python malveillant. Ce dernier est capable de voler des jetons AWS et des secrets CI/CD.
Selon des recherches menées par JFrog, éditeur d’une plateforme de cycle de développement logiciel et devsecops, le package « chimera-sandbox-extensions », récemment téléchargé sur le célèbre référentiel PyPI, contient un voleur d’informations furtif à plusieurs étapes. Les renseignements obtenus à partir des jetons et des journaux volés pourraient aider les attaquants à infiltrer ou à saboter davantage les infrastructures. « Le package vise à voler des identifiants et d’autres informations sensibles telles que la configuration JAMF, les variables d’environnement CI/CD et les jetons AWS », ont déclaré les chercheurs de JFrog dans un article de blog. De plus, il exfiltre les jetons d’authentification et les données Git de l’environnement sandbox Pod, la configuration de l’hôte Zscaler, l’adresse IP publique et les informations générales sur la plateforme, l’utilisateur et l’hôte. Une fois installé, le paquet lance un algorithme sophistiqué de génération de domaines (DGA), choisissant parmi 10 adresses pour localiser son centre de commande et de contrôle (C2). Une fois la communication C2 établie, il télécharge une charge utile Python dynamique de deuxième étape, conçue pour voler les données de l’environnement.
Les experts alertent sur la montée en puissance des paquets malveillants
« La détection de packages malveillants, tels que les extensions chimera-sandbox, sur PyPI met en évidence le risque important et généralisé posé par les attaques visant la chaîne d’approvisionnement logicielle », a déclaré Eric Schwake, directeur de la stratégie de cybersécurité chez Salt Security. Il ajoute « la principale menace réside dans sa capacité à collecter des données sensibles liées aux développeurs, notamment les identifiants, les fichiers de configuration, et surtout les jetons AWS et les variables d’environnement CI/CD. »
De son côté, Mike McGuire, responsable senior des solutions de sécurité chez Black Duck, indique, « cet incident souligne la sophistication croissante des attaques sur le cycle de développement des logiciels, où des paquets apparemment fiables peuvent véhiculer des logiciels malveillants dangereux ». Pessimiste, il observe que « malheureusement, la fréquence de telles attaques est susceptible de croître ; les équipes doivent donc adopter une approche multicouche pour se défendre ».
La protection nécessite une approche multicouche
Les experts considèrent l’incident chimera-sandbox-extension comme bien plus qu’un simple démantèlement de paquet malveillant. Si JFrog a réagi rapidement (en alertant les responsables de PyPI, en supprimant le paquet et en mettant à jour son scanner Xray), les chercheurs s’accordent à dire qu’une solution ponctuelle ne suffit pas. « Au cours des cinq dernières années, les attaquants ont exploité PyPI et d’autres gestionnaires de paquets pour exploiter la confiance des développeurs par le biais de typosquatting et d’attaques de supply chain », souligne Fletcher Davis, responsable senior de la recherche en sécurité chez BeyondTrust. Pour lui, « l’incident des extensions chimera-sandbox souligne l’insuffisance des approches de sécurité traditionnelles face aux menaces modernes qui pèsent sur le cycle de développement. Il nécessite une approche proactive et multicouche combinant contrôles techniques, améliorations des processus et surveillance continue, plutôt que de s’appuyer uniquement sur des mesures réactives.»
Plus précisément, Jason Soroko, chercheur senior chez Sectigo, a souligné qu’interdire les installations directes « PiP » et « uv » à partir d’index publics peut s’avérer utile. « Mettez en miroir les dépendances approuvées dans un référentiel interne et appliquez l’épinglage des hachages dans les fichiers de verrouillage », complète-t-il. « Analysez tous les paquets entrants avec des analyses statiques et dynamiques pour détecter les appels DGA et le code de collecte d’identifiants observés dans les extensions chimera-sandbox. Automatisez la suppression des dépendances obsolètes ou inutilisées », poursuit-il. Les abus envers les gestionnaires de paquets open source ont explosé ces dernières années, en raison de leur portée massive et de leur impact potentiel considérable grâce à des millions de téléchargements quotidiens. Des découvertes récentes ont montré que des attaquants ont exploité le gestionnaire de paquets npm pour diffuser des paquets malveillants afin d’effacer des systèmes de production entiers, d’espionner des machines DevOps et d’implanter des logiciels malveillants voleurs et RCE (exécution de code à distance).
Des chercheurs ont découvert une technique où des attaquants peuvent utiliser et distribuer des paquets recommandés mais surtout inventés par des modèles IA.
La sécurité des modèles d’IA est devenue un sujet important. Plusieurs techniques existent pour faire plier les garde-fous et corrompre les résultats : empoisonnement de données, usage de langage méconnu, …. Une équipe de l’université du Texas à San Antonio, de Virginia Tech et de l’université d’Oklahoma vient d’en trouver une autre qui s’appuie sur la capacité des LLM à halluciner du code. Nommée slopsquatting, elle constitue une menace pour le cycle de…
Il vous reste 90% de l’article à lireVous devez posséder un compte pour poursuivre la lecture
Vous avez déjà un compte?
La Cisa a lancé une alerte concernant une faille critique dans la solution de sauvegarde de Nakivo. Elle est activement exploitée par les cyberpirates.
Les cybercriminels apprécient particulièrement les vulnérabilités concernant les éditeurs de sauvegarde. On comprend pourquoi la Cisa (équivalent américain de l’Anssi) vient de lancer un avertissement sur une faille critique touchant la solution Backup & Replication de Nakivo. Répertoriée CVE-2024-48248 et un score de gravité de CVSS 8.6, elle entraîne une traversée de répertoire. « Cette vulnérabilité permet aux attaquants de lire des fichiers arbitraires sur le système affecté sans authentification », a déclaré le spécialiste américain de la sauvegarde des VM et des environnements SaaS dans l’avis de sécurité. « L’exploitation de cette vulnérabilité pourrait exposer des données sensibles, y compris des fichiers de configuration, des sauvegardes et des informations d’identification, ce qui pourrait conduire à des violations de données ou à d’autres compromissions de la sécurité » poursuit le fournisseur.
La vulnérabilité a été identifiée pour la première fois et portée à la connaissance de Nakivo par la société de cybersécurité WatchTowr le 13 septembre 2024. Il a fallu plus d’un mois à l’éditeur pour reconnaître la découverte. En conformité avec sa politique de diffusion, WatchTowr a publié des détail sur la faille, ainsi qu’un prototype d’exploit en février 2025.
Une diffusion d’un PoC d’exploit face au mutisme de Nakivo
Dans son alerte, la Cisa a expliqué que la brèche de sécurité était activement exploitée. Il est difficile de dire néanmoins si la publication du PoC par WatchTwr a facilité les campagnes d’attaques. La société était consciente du problème lors de la diffusion de son exploit. Il indique dans un blog « face à une vulnérabilité aussi « simple », il est parfois difficile de croire que nous sommes les seuls à être tombés dessus ».
Dans le viseur, la stratégie de Nakivo qui a eu déjà du mal à répondre aux sollicitations de WatchTwr. « Nous supposons bien sûr qu’ils ont contacté tous leurs clients sous NDA [ ndlr : clause de confidentialité] et qu’ils les ont encouragés à patcher discrètement, afin d’éviter de laisser leurs clients vulnérables à leur insu », glisse le fournisseur de cybersécurité. La vulnérabilité n’est pas sans rappeler celle découverte récemment chez Veeam dans son outil nommé également Backup & Replication.
Avec le succès de Deepseek, un cybercriminel n’a pas attendu longtemps pour proposer des paquets Python avec des noms quasi similaires à la start-up chinoise comprenant des infostealers.
L’onde de choc déclenchée par le lancement de DeepSeek n’a pas laissé indifférent les pirates comme le montre un rapport du centre de recherche de Positive Technologies, société de cybersécurité. Les experts ont en effet trouvé une campagne ciblant des développeurs peu méfiants, des ingénieurs en machine learning ou des passionnés d’IA cherchant à intégrer Deepseek dans leurs projets.
Le 29 janvier dernier, un pirate nommé « bvk » a posté deux paquets nommées deepseeek et deepseekai sur PyPi dépôt officiel des paquets Python. « Les fonctions utilisées dans ces paquets sont conçues pour collecter les données de l’utilisateur et voler des variables d’environnement », souligne les chercheurs. Les charges utiles de ces paquets sont des infostealers capables d’extraire des données sensibles comme les clés API pour S3, des identifiants de base de données et des autorisations d’accès à l’infrastructure. Le cybercriminel se sert en parallèle du logiciel Pipedream, plateforme cloud d’intégration et d’automatisation pour les développeurs, comme serveur de commande et contrôle (C2) pour récupérer les données volées.
Une action opportuniste d’un pirate inexpérimenté
Toujours dans leur analyse, les experts de Positive Technologies observent des signes d’inexpérience sur la création de la charge utile. En effet, le pirate s’est servi d’un assistant IA pour écrire le code malveillant. Les chercheurs l’ont déterminé grâce aux commentaires caractéristiques expliquant chaque ligne de code. De même, ils ont constaté que le compte « bvk » utilisé pour télécharger ces paquets était inactif depuis sa création en juin 2023. Selon Mike McGuire, responsable des solutions de sécurité chez Black Duck, ce fait aurait dû être un signe révélateur pour les développeurs.
Dans un commentaire adressé à nos confrères de CSO, le responsable a déclaré, « dans leur empressement à exploiter DeepSeek dans leurs tâches, de nombreux développeurs n’ont pas vu le « drapeau rouge » indiquant qu’ils téléchargeaient des paquets à partir d’un compte à la réputation limitée et médiocre, ce qui a eu pour conséquence de compromettre leurs variables d’environnement et leurs secrets. » Il ajoute, « bien que le nom DeepSeek ait été utilisé dans cette attaque, il est important de noter que cela n’a rien à voir avec l’entreprise, ni avec l’IA en général ». Il s’agit d’une action opportuniste. Les paquets ont été signalés « rapidement » aux administrateurs de PyPI, qui les ont depuis supprimés. Ils ont malheureusement été téléchargés plus de 200 fois, concluent les chercheurs.





