Over 10 years we help companies reach their financial and branding goals. Engitech is a values-driven technology agency dedicated.

Gallery

Contacts

411 University St, Seattle, USA

engitech@oceanthemes.net

+1 -800-456-478-23

Sécurité informatique

Cisco promeut l’Internet des agents pour une collaboration sécurisée entre agents IA

Le centre de recherche Outshift de Cisco imagine un infrastructure partagée standardisée qui permet des communications quantiques sûres entre les agents IA. 
À mesure que les agents d’intelligence artificielle commencent à se multiplier, une structure ouverte sera nécessaire pour qu’ils puissent communiquer et collaborer en toute sécurité afin de résoudre des problèmes complexes, explique Cisco. Pour éviter les problèmes potentiels tels que l’explosion des agents et l’infrastructure fragmentée, l’incubateur et département de recherche avancé Outshift de Cisco (à l’origine de Calisti, une application de gestion de services mesh basée sur Istio;…

Il vous reste 91% de l’article à lireVous devez posséder un compte pour poursuivre la lecture

Vous avez déjà un compte?

Sécurité informatique

Cisco promeut l’Internet des agents pour une collaboration sécurisée entre agents IA 

Le centre de recherche Outshift de Cisco imagine un infrastructure partagée standardisée qui permet des communications quantiques sûres entre les agents IA. 
À mesure que les agents d’intelligence artificielle commencent à se multiplier, une structure ouverte sera nécessaire pour qu’ils puissent communiquer et collaborer en toute sécurité afin de résoudre des problèmes complexes, explique Cisco. Pour éviter les problèmes potentiels tels que l’explosion des agents et l’infrastructure fragmentée, l’incubateur et département de recherche avancé Outshift de Cisco (à l’origine de Calisti, une application de gestion de services mesh basée sur Istio;…

Il vous reste 91% de l’article à lireVous devez posséder un compte pour poursuivre la lecture

Vous avez déjà un compte?

Sécurité informatique

VMware corrige des failles critiques dans Aria

Broadcom exhorte à l’application de patchs qui comblent des vulnérabilités critiques dans les outils de gestion du cloud Aria de VMware. 
VMware a corrigé plusieurs vulnérabilités hautement critiques affectant sa plateforme de gestion du cloud (PCM) Aria, qui donneraient la capacité aux attaquants de voler des informations sensibles de gestion dans les environnements virtualisés de l’éditeur. Broadcom, dans un avis publié jeudi, a révélé que deux des cinq vulnérabilités récemment dévoilées sont des « failles de divulgation d’informations de haute gravité » affectant respectivement les composants VMware Aria Operations et Aria Operations for Logs. « Des vulnérabilités multiples dans VMware Aria Operations for Logs et VMware Aria Operations ont été signalées à VMware par le biais de rapports privés », a expliqué le fournisseur. « Des correctifs sont disponibles pour remédier à ces vulnérabilités dans les produits VMware concernés. » Cloud Foundation (VCF), la proposition complète de VMware pour déployer et gérer des infrastructures cloud hybrides, souffre également de ces bogues en raison du haut niveau d’intégration entre VCF et Aria pour assurer des fonctionnalités de gestion et d’exploitation des infrastructures cloud. 
Vols d’informations de connexion possibles 
L’un des bugs (CVE-2025-22218) affectant VMware Aria Operations for Logs, solution axée sur la collecte des journaux, l’analyse en temps réel, la débogage et la détection d’événements de sécurité, possède une note CVSS très élevée de 8,5/10 pour son exploitabilité à faible privilège qui peut mener au vol des informations sensibles. « Un acteur malveillant avec les droits d’administrateur en lecture seule pourrait être capable de lire les informations de connexion d’un produit VMware intégré avec Aria Operations for Logs », a déclaré la société. Un autre bug similaire (CVE-2025-22222), nécessitant également un privilège à faible niveau pour l’exploitation, affecte VMware Aria Operations, un outil responsable de la surveillance des infrastructures, de la gestion des performances, de le planification de la capacité, de l’automatisation et la gestion des coûts. Il lui a été attribué une note CVSS de 7,7/10. « Un utilisateur malveillant avec des privilèges non administratifs pourrait exploiter cette vulnérabilité pour obtenir des informations de connexion d’un plugin externe valide si un identifiant de créneau de service valide est connu », a ajouté l’entreprise dans l’avis. Ces failles affectent les versions 8.x de VMware Aria Operations for Logs, Aria Operations et les versions 5.x et 4.x du VCF. Elles ont été corrigées par Aria Operations v8.18.3 et Aria Operations for Logs v8.18.3. Les utilisateurs sont conseillés d’appliquer le patch KB92148 pour corriger les environnements affectés par VCF.   
D’autres vulnérabilités liées à de l’élévation de privilèges 
VMware Aria Operations for Logs contient également une vulnérabilité de script croisé (CVE-2025-22219) avec un niveau de gravité important (CVSS 6,8/10) et une vulnérabilité d’échelle de privilèges (CVE-2025-22220) avec un niveau de gravité modéré (CVSS 4,3/10). Un autre bug similaire (CVE-2025-22221), ayant également une note CVSS modérée de 5,2/10, affecte VMware Aria Operations for Logs et pourrait permettre à des acteurs avec des privilèges d’administrateur de lancer des scripts malveillants sur le navigateur de la cible. Toutes ces vulnérabilités ont affecté les mêmes versions de produits VMware Aria et VCF que les failles de divulgation d’informations, et ont été corrigées dans la même mise à jour. Broadcom a noté qu’il n’existe pas de solution temporaire pour ces bugs. 

Sécurité informatique

Les hackers éthiques de Microsoft doutent de l’IA sécurisée

Même l’équipe de hackers éthiques de l’IA de Microsoft émet des doutes lorsqu’on évoque une IA sécurisée. Dans un article de recherche du 13 janvier dernier, ses membres, avec d’autres auteurs, arrivent à une conclusion sur ce sujet qui apporte certes quelques réponses, mais soulève aussi de nouvelles questions.
La Red Team, autrement dit l’équipe de hackers éthiques de Microsoft, qui s’occupe de plus de 100 produits de GenAI chez l’éditeur, affirme que la conception de systèmes d’IA sécurisés et sûrs est une tâche qui ne peut être achevée. Dans un article publié cette semaine, les auteurs, dont Mark Russinovich, CTO et deputy CISO de Microsoft Azure, ont décrit une partie du travail de l’équipe sous la forme de huit recommandations pour « aligner des efforts de Red Teaming avec les risques du monde réel ».L’auteur principal, Blake Bullwinkel, chercheur en AI safety au sein de cette Red Team IA de Microsoft, et ses 25 co-auteurs expliquent : « à mesure que les systèmes de GenAI sont adoptés dans un nombre croissant de domaines, le “Red Teaming” devient une pratique essentielle pour évaluer la sûreté et la sécurité de ces technologies. » Et de poursuivre : « Le rôle de la Red Team est de repousser les limites en matière de sécurité au-delà des références de sécurisation de modèles, et ce, en émulant des attaques du monde réel sur les systèmes complets, de bout en bout. Cependant, de nombreuses questions demeurent quant à la façon dont les opérations de Red Teaming en IA devraient être menées et il existe une bonne dose de scepticisme quant à l’efficacité des efforts actuels. »Le recours à l’automatisation des testsLe document rappelle que, lors de sa création en 2018, la Microsoft AI Red Team (AIRT) se concentrait principalement sur l’identification des vulnérabilités de sécurité traditionnelles et des attaques en évasion contre les modèles classiques de machine learning. « Depuis lors, raconte l’article, le périmètre d’action tout autant que la taille de l’AIRT ont considérablement augmenté en réponse à deux tendances majeures. » En premier lieu, l’IA est devenue beaucoup plus sophistiquée et, en second lieu, les récents investissements de Microsoft dans l’IA ont entraîné le développement de beaucoup plus de produits nécessitant une Red Team.Une double tendance qui a « rendu les tests entièrement manuels impraticables, nous obligeant à intensifier nos opérations à l’aide de l’automatisation », écrivent les auteurs. « [Pour atteindre] cet objectif, nous avons développé Pyrit, un cadre Python open source que nos opérateurs utilisent beaucoup pour les opérations de Red Teaming. » En augmentant le poids du jugement humain et de la créativité dans les analyses et les décisions, Pyrit a permis à AIRT d’identifier plus rapidement les vulnérabilités à fort impact et de couvrir une plus grande partie du paysage de risques.Les auteurs ont donc décidé de partager huit constats tirés de leur expérience dans l’article de recherche.« Il faut comprendre ce que le système peut faire et où il est utilisé ». La première étape d’une opération de Red Teaming d’IA consiste à déterminer les vulnérabilités à cibler. « En partant des impacts potentiels en aval, plutôt que des stratégies d’attaque, il est plus probable qu’une opération produise des résultats utiles liés aux risques du monde réel, suggèrent les auteurs. Une fois que ces impacts ont été identifiés, la Red Team peut travailler à rebours et décrire les différentes voies qu’un adversaire pourrait emprunter pour les atteindre ».« Inutile de savoir calculer des gradients pour casser un système d’IA ». Pour le prouver, l’article fait référence à une étude sur l’écart entre la recherche et la pratique du machine learning antagoniste (étude des attaques sur les algorithmes de machine learning et des moyens de les prévenir). Ce document explique que « bien que la plupart des recherches sur le machine learning soient axées sur le développement et la défense contre des attaques sophistiquées, les attaquants du monde réel ont tendance à utiliser des techniques beaucoup plus simples pour atteindre leurs objectifs ». Certes, les attaques basées sur le gradient, par exemple, sont puissantes, « mais elles sont souvent peu pratiques ou inutiles. Nous recommandons de privilégier la reproduction de techniques simples et d’orchestrer des attaques au niveau du système, car il est plus probable que ce soit le type d’attaque tenté par de véritables adversaires ».« Le Red Teaming de l’IA n’est pas un benchmark de sécurité ». Ce sont deux démarches distinctes, insistent les auteurs de l’article, mais « toutes deux sont utiles, voire complémentaires ». Les benchmarks permettent ainsi de comparer facilement les performances de plusieurs modèles sur un ensemble de données commun. Le Red Teaming de l’IA, lui, nécessite beaucoup plus de ressources humaines, mais peut identifier de nouvelles catégories de dommages et explorer des risques contextualisés. Les nouveaux préjudices résultant des nouvelles capacités des systèmes d’IA peuvent ne pas être entièrement compris, de sorte que l’équipe doit les définir et créer des outils pour les mesurer.« L’automatisation pour aider à couvrir un paysage de risques plus important ». Selon les auteurs, la « complexité du paysage des risques liés à l’IA a conduit au développement d’une variété d’outils capables d’identifier les vulnérabilités plus rapidement, d’exécuter automatiquement des attaques sophistiquées et d’effectuer des tests à une échelle beaucoup plus grande ». L’automatisation dans le Red Teaming de l’IA joue un rôle essentiel, ce qui a conduit au développement de Pyrit chez Microsoft.« L’élément humain est crucial dans le Red Teaming de l’IA ». Même si l’automatisation est importante pour soutenir les opérations de hacking éthique en générant des prompts, en orchestrant des attaques et en marquant des réponses, poursuivent les auteurs, « les connaissances culturelles et thématiques des humains restent indispensables, ainsi que leur intelligence émotionnelle ».« Les dommages causés par l’IA responsable sont omniprésents, mais difficiles à mesurer ». Autrement dit, les dommages directement causés par l’IA, en particulier l’IA dite responsable, sont plus difficiles à appréhender que les vulnérabilités de sécurité proprement dites, préviennent les auteurs. Tout cela a à voir avec « des différences fondamentales entre les systèmes d’IA et les logiciels traditionnels ». La plupart des recherches sur la sécurité de l’IA se concentrent sur les utilisateurs-adversaires, ceux qui brisent délibérément les garde-fous. En réalité, insistent les co-auteurs de l’article, « les utilisateurs apparemment inoffensifs qui génèrent accidentellement du contenu nuisible sont aussi importants, voire davantage ».« Les LLM amplifient les risques de sécurité existants et en introduisent de nouveaux ». L’intégration de modèles de GenAI dans un éventail de plus en plus grand d’applications a introduit de nouveaux vecteurs d’attaque et modifié le paysage des risques de sécurité. Les auteurs encouragent ainsi « les Red Teams IA à prendre en compte à la fois les risques existants (généralement au niveau du système) et les nouveaux risques (généralement au niveau du modèle) ».« Le travail de sécurisation des systèmes d’IA ne sera jamais terminé ». L’idée qu’il serait possible de garantir la sécurité de l’IA, ou de résoudre cette question, par les seules avancées techniques est irréaliste et néglige les rôles que peuvent jouer les dynamiques économiques, les cycles “défaillance-réparation” (break-fix) et la réglementation. Le document souligne ainsi qu’« en l’absence de garanties de sécurité, nous avons besoin de méthodes pour développer des systèmes d’IA aussi difficiles à casser que possible. L’une des façons d’y parvenir est d’utiliser des cycles de “défaillance-réparation”, qui comprennent plusieurs séries de Red Teaming et d’atténuation du danger jusqu’à ce que le système soit robuste face à un large éventail d’attaques. »Le Red Teaming, une pratique naissanteLes auteurs concluent en rappelant que le Red Teaming de l’IA reste une pratique naissante et en évolution rapide pour identifier les risques de sûreté et de sécurité posés par les systèmes d’IA. Mais ils soulèvent aussi un certain nombre de questions. Pour commencer : « comment rechercher des éléments dangereux au sein des LLM comme la capacité de persuasion, la tromperie ou la réplication ? ». « Quels nouveaux risques examiner dans les modèles de génération de vidéos ? Et quelles sont les fonctions qui pourraient émerger dans des modèles plus avancés que l’état de l’art actuel ? ». Autre question : comment les Red teams peuvent-elles ajuster leurs pratiques aux différents contextes linguistiques et culturels ? Et enfin, de quelle manière standardiser les pratiques de Red Teaming pour que les équipes communiquent plus facilement leurs résultats ?

Sécurité informatique

En s’appuyant sur Google Gemini, les cybercriminels peaufinent leurs attaques

Une analyse menée par l’équipe de chercheurs en sécurité de Google a montré que des pirates informatiques exploitent déjà la puissance des systèmes d’IA, dont la technologie Gemini. Ils peuvent ainsi améliorer les campagnes malveillantes, corriger du code et manipuler du contenu.
Des acteurs malveillants soutenus par des Etats se servent actuellement du service IA Gemini de Google pour étendre leurs capacités. Un usage qui s’inscrit dans un effort déployé par des pirates de tous niveaux pour exploiter des modèles de GenAI accessibles au public à des fins criminelles et d’espionnage. Telle est la conclusion d’un rapport publié aujourd’hui par le Threat Intelligence Group (TIG) de Google, qui montre comment les cybercriminels utilisent l’IA et appelle les gouvernements et le secteur privé à…

Il vous reste 94% de l’article à lireVous devez posséder un compte pour poursuivre la lecture

Vous avez déjà un compte?

Sécurité informatique

Plus d’un million de données sensibles de Deepseek exposées

La start-up chinoise Deepseek a selon un éditeur de sécurité laissé une base de données sans protection. Plus d’un million d’informations ont ainsi été compromises, ce qui repose la question de la sécurisation de l’IA.
Après l’émerveillement, DeepSeek doit faire face à une salve d’accusations (notamment de plagiat d’OpenAI) et de doutes (lettre envoyée par la Cnil italienne pour sa conformité au RGPD). Il faut maintenant compter sur les questions de sécurité avec la découverte par Wiz d’un cache de données sensibles ouvertement accessibles sur Internet. Selon l’éditeur de sécurité, plus d’un million d’informations seraient ainsi exposées.
Les experts ont constaté que la start-up chinoise avait par inadvertance laissé une base de données ClickHouse non sécurisée accessible en ligne. Ami Luttwak, directeur technique de Wiz, a confirmé dans un article de blog que DeepSeek avait rapidement agi pour sécuriser la base de données après avoir été alerté. « Ils l’ont corrigée en moins d’une heure ». Et d’ajouter, « c’était si simple à trouver que nous pensons que nous ne sommes pas les seuls à l’avoir découvert ».
Un accès aux logs et aux interactions des utilisateurs
Dans le détail, les données exposées comprenaient des historiques de chat, des détails de backend, des secrets d’API et des informations opérationnelles sensibles. Selon Wiz, la base de données n’était absolument pas protégée, ce qui donnait un accès illimité aux journaux internes et pouvait potentiellement compromettre les interactions des utilisateurs.
La base de données non protégée accordait également un contrôle de niveau administrateur complet sur son contenu. Les attaquants ayant accès auraient pu récupérer des données propriétaires, extraire des mots de passe en texte clair et même accéder à des fichiers locaux stockés sur les serveurs de DeepSeek. Les chercheurs ont noté qu’il n’y avait aucun mécanisme d’authentification en place, ce qui rend la violation particulièrement alarmante.
Une sécurité à ne pas négliger
Cette découverte intervient dans un contexte particulier pour Deepseek. Son lancement a provoqué une onde de choc sur le marché avec un modèle de raisonnement R1 capable de rivaliser avec OpenAI pour un coût moindre. L’engouement provoqué a entraîné une riposte de la part des Etats-Unis qui va examiner l’impact du modèle sur la sécurité nationale. La Marine américaine a déjà annoncé l’interdiction de l’usage de Deepseek. L’Europe est aussi montée au créneau avec la Cnil italienne, mais aussi le régulateur irlandais en demandant des éclaircissements sur la protection des données personnelles.
Les experts en cybersécurité alertent qu’au-delà de l’affaire Deepseek, les startups d’IA, dans leur hâte de se développer, ne doivent pas négliger les règles de sécurité de base. « Les risques de sécurité immédiats pour les applications d’IA proviennent de l’infrastructure et des outils qui les soutiennent », glisse les chercheurs de Wiz. Ils ajoutent, « alors qu’une grande partie de l’attention autour de la sécurité de l’IA se concentre sur les menaces futuristes, les véritables dangers proviennent souvent d’une mauvaise configuration de base ».

Sécurité informatique

Un botnet Mirai sur les téléphones Mitel signale quand il est détecté

Selon l’équipe d’Akamai, le malware Aquabotv3 exploite activement une vulnérabilité connue dans les téléphones Mitel pour les inclure dans son botnet. Les cybercriminels ont ajouté en plus une fonction signalant quand il est détecté.
Une troisième variante du logiciel malveillant Aquabot basé sur Mirai prend apparemment le contrôle des téléphones Mitel pour créer un botnet contrôlé à distance qui peut lancer des attaques par déni de service distribué (DDoS). Selon la Security Intelligence and Response Team d’Akamai, le malware, baptisé Aquabotv3, exploite activement une vulnérabilité connue des terminaux pour accéder à leur fonction SIP ( protocole d’initiation de session). Il est intéressant de noter que cette variante présente une caractéristique unique et inédite (du moins dans Mirai) : elle signale lorsqu’elle est détectée.
L’équipe d’Akamai indique que le logiciel malveillant « présente un comportement qui n’avait jamais été observé auparavant avec Mirai » : quand le terminal infecté tente de supprimer le logiciel malveillant, sa fonction [report_kill] alerte le serveur de commande et de contrôle (C2). Cependant, les chercheurs ont précisé qu’ils n’avaient pas encore vu de réponse de la part du serveur C2. « Les attaques DDoS restent une menace omniprésente pour de nombreuses entreprises, et les botnets comme Aquabot en sont des acteurs clés », ont écrit Kyle Lefton et Larry Cashdollar, chercheurs en sécurité d’Akamai, dans un blog. « Pour un auteur de botnet novice, le retour sur investissement de Mirai est élevé. C’est l’une des familles de botnets les plus prospères au monde, et c’est aussi l’une des plus simples à modifier. »
Une caractéristique unique, mais pas nécessairement un avantage
Mirai a été conçu pour détourner objets connectés (IoT) afin de créer des botnets de contrôle à distance capables de lancer des attaques DDoS de grande ampleur. C’est le fournisseur d’antivirus Antiy Labs qui, en novembre 2023, a découvert Aquabot pour la première fois. La v3 exploite une vulnérabilité d’injection de commande référencée CVE-2024-41710, qui cible spécifiquement les téléphones des séries 6800, 6900 et 6900w de Mitel. Révélée pour la première fois à la mi-juillet 2024, cette vulnérabilité donne la capacité aux attaquants d’obtenir des privilèges d’administration et d’altérer les paramètres d’entrée afin d’accéder à des données sensibles pour exécuter ensuite des commandes arbitraires spécifiques au système. « Ces machines IoT sont souvent dépourvues de fonctions de sécurité appropriées, sont en fin de service ou fonctionnent avec des configurations et des mots de passe par défaut, soit par négligence, soit par manque de connaissance des risques », ont écrit les chercheurs d’Akamai.
Ces derniers font remarquer que, à première vue, le logiciel malveillant semble n’être qu’un « binaire du malware Mirai standard avec des fonctions d’attaque DDoS typiques ». Cependant, en y regardant de plus près, ils ont découvert une fonction qui envoie un signal lorsqu’elle détecte certaines actions de sécurité dans le téléphone infecté qui pourraient mettre fin à l’activité malveillante. Quand l’une de ces actions est identifiée, Aquabotv3 la capte, marque le malware comme étant « protégé » contre ce signal, puis prévient son C2. « Nous n’avons pas encore observé ce comportement dans une variante de Mirai, il est donc possible que cette fonctionnalité soit nouvelle », ont ajouté les chercheurs. La véritable raison de ce comportement n’est pas encore confirmée, mais il pourrait servir à surveiller la santé du botnet. Cette observation intentionnelle de l’activité défensive d’un terminal pourrait aussi être utilisée par les attaquants pour développer des « variantes plus furtives ». Enfin, elle pourrait également servir à détecter des réseaux de zombies concurrents actifs ou des campagnes de démantèlement. « Ce logiciel malveillant n’est pas particulièrement silencieux, ce qui pourrait lui être préjudiciable », soulignent Kyle Lefton et Larry Cashdollar.
La lutte persistante contre les attaques DDoS basées sur Mirai
Le nombre de variantes de Mirai est incalculable – les chercheurs en ont dénombré entre 7 et plus de 200 – mais les entreprises de cybersécurité font preuve de diligence pour les éradiquer. Il y a une semaine, par exemple, Cloudflare a déclaré avoir détecté le plus gros DDoS jamais enregistré, une attaque de 5,6 térabits par seconde (Tbps) lancée par une variante de Mirai. L’attaque visait un fournisseur d’accès à Internet asiatique et provenait de plus de 13 000 appareils IoT. Elle n’a duré que 80 secondes et a été rapidement identifiée et atténuée par les systèmes autonomes de Cloudflare. « Aucune intervention humaine, aucune alerte n’ont été nécessaires et il n’y a eu aucune dégradation des performances », a affirmé Cloudflare dans un blog la semaine dernière.
Dans un autre cas, les chercheurs de VulnCheck ont découvert que, depuis novembre 2024, les attaquants utilisaient le botnet Gayfemboy, basé sur le malware Mirai, pour attaquer des vulnérabilités précédemment inconnues dans les routeurs et des IoT domestisques. Il est clair que Mirai n’est pas près de disparaître, voire jamais, pas plus que les attaques DDoS. En fait, Cloudflare a signalé une augmentation de 53 % des menaces DDoS en 2024 par rapport à 2023 et une hausse considérable de 1 885 % des attaques dépassant 1 Tbps, appelées attaques DDoS « hyper-volumétriques », entre le troisième et le quatrième trimestre 2024.
Aquabot présenté comme un service DDoS en tant que tel
Les chercheurs d’Akamai ont découvert que les créateurs d’Aquabotv3 ont fait de la publicité pour le botnet en tant que service DDoS via des plateformes comme Telegram, sous différents noms, notamment Cursinq Firewall, The Eye Services et The Eye Botnet. Comme ils l’ont noté, les cybercriminels affirment généralement que le botnet n’est pas nuisible et qu’il est uniquement destiné à tester l’atténuation des attaques DDoS (ou « red teaming »). « Les acteurs de la menace prétendent qu’il s’agit simplement d’une preuve de concept (PoC) ou d’un outil pédagogique, mais une analyse plus approfondie montre qu’ils font de la publicité pour le DDoS en tant que service, ou que les propriétaires se vantent d’exploiter leur propre botnet », ont déclaré les chercheurs.
Quoi qu’il en soit, ces derniers ont souligné l’importance de sécuriser les terminaux IoT encore configurés avec des identifiants par défaut. Étant donné que de nombreux botnets s’appuient sur des bibliothèques de mots de passe communs pour l’authentification, il est important de vérifier les identifiants de connexion et de les modifier s’ils sont toujours configurés par défaut ou s’ils sont faciles à deviner. De plus, les équipes de sécurité doivent identifier où se trouvent les dispositifs IoT connus et « vérifier qu’il n’y a pas de dispositifs illégaux » parmi eux.

Sécurité informatique

Les failles Slap et Flop fragilisent les terminaux Apple

Des chercheurs ont découvert des failles dans deux fonctions nommées Slap et Flop dans les puces Silicon d’Apple. Ce dernier dit travailler sur un correctif et qu’il n’y a pas de risque immédiat.
Le début d’année est orienté sécurité pour Apple avec la découverte par des universitaires du Georgia Institute of Technology de deux vulnérabilités existant depuis 2021. Signalées par Bleepingcomputer, les failles peuvent entraîner des attaques par canal latéral pour dérober des données sur des sites web. Un site malveillant pourrait, par exemple, voir les données de localisation à partir d’un onglet de Google Maps, ou des courriels non chiffrés à partir d’un onglet de navigateur ouvert qui est connecté à un compte de messagerie sécurisé. Informations bancaires, données de connexion, historique des achats : les cibles potentielles sont nombreuses.
La plupart des navigateurs mettent les sessions web en « bac à sable », de sorte qu’un onglet ou une fenêtre du navigateur ne peut pas accéder aux données d’autres onglets/fenêtres. Les vulnérabilités Slap et Flop exploitent les caractéristiques des derniers processeurs Apple pour contourner ce sandboxing.
Détails sur les deux attaques Slap et Flop
Les puces Silicon M2 et A15, A16 et A17 sont dotées d’une fonction appelée LAP (load adress prediction), qui « tente de prédire la prochaine adresse mémoire à laquelle le noyau accèdera », précise les chercheurs dans leurs travaux. Slap, acronyme pour speculation attack via load adresse prediction commence par entraîner faussement cet algorithme prédictif, puis s’en sert pour extraire des données ciblées d’autres processus du navigateur. L’attaque marche uniquement dans Safari.
A partir de la génération de puces Silicon M3 et A17, Apple va plus loin dans la prédiction avec la fonction Load Value Predictor (LVP). « Elle prévoit la valeur des données qui sera renvoyée par la mémoire », glisse les experts. Ils ajoutent, « des erreurs de prédiction dans ces mécanismes peuvent entraîner l’exécution de calculs arbitraires sur des données hors champs ou sur des valeurs de données erronées ». Ainsi se caractérise l’attaque Flop, acronyme de False Load Output Predictions, qui fonctionne également sur Safari mais aussi sur Chrome.
De nombreux terminaux concernés
Selon les chercheurs, les terminaux Apple suivants disposent des composants nécessaire à l’exécution de ces failles.
– Tous les ordinateurs portables Mac à partir de 2022 (MacBook Air, MacBook Pro) ;
– Tous les ordinateurs de bureau Mac à partir de 2023 (Mac Mini, iMac, Mac Studio, Mac Pro) ;
– Tous les modèles d’iPad Pro, Air et Mini à partir de septembre 2021 (iPad Pro 6e et 7e génération, iPad Air 6e génération, iPad Mini 6e génération) ;
– Tous les iPhone à partir de septembre 2021 (modèles iPhone 13, 14, 15 et 16, iPhone SE 3e génération).
Apple temporise mais travaille sur un correctif
Les chercheurs du Georgia Institute of Technology affirment qu’il n’existe aucune preuve que Slap ou Flop aient été utilisés dans la nature. De même, Apple a déclaré à BleepingComputer : « Sur la base de notre analyse, nous ne pensons pas que ce problème pose un risque immédiat pour nos utilisateurs. »
La firme de Cupertino n’écarte cependant pas le problème et déclare travailler sur un correctif sans donner une date de disponibilité. La faille Slap a été révélée à Apple le 24 mai dernier et Flop le 3 septembre 2024. Depuis, le fournisseur a publié de nombreuses mises à jour de sécurité mais aucune à ce jour corrigeant ces deux trous de sécurité.

Sécurité informatique

Cybersécurité : L’UE lance un plan d’action pour le secteur de la santé

Pour renforcer la cybersécurité du secteur de la santé, l’Union européenne lance un plan d’action axé sur la prévention, la détection, l’atténuation de l’impact et la dissuasion des menaces.
Les cyberattaques ciblant les hôpitaux ou les cliniques n’ont cessé d’augmenter ces dernières années, soumettant le secteur à une pression croissante : en 2023, 309 incidents de cybersécurité ont été signalés par les États membres. Les ransomwares arrivent en tête des cybermenaces pour les organismes de santé, car les cybercriminels savent que leurs systèmes opérationnels (OT) sont critiques et que les données de santé sont très sensibles. L’UE a donc décidé de mettre en place un plan d’action de l’UE pour les hôpitaux et les prestataires de santé. Il s’agit du premier plan sectoriel utilisant toutes les mesures de cybersécurité de l’UE.
Selon Henna Virkkunen, commissaire chargée de la souveraineté technologique, de la sécurité et de la démocratie, grâce à la transformation numérique, les soins de santé modernes ont fait d’incroyables progrès, ce qui a permis aux citoyens de bénéficier de meilleurs soins de santé. « Malheureusement, les systèmes de santé sont également exposés aux incidents et aux menaces de cybersécurité. C’est pourquoi nous lançons un plan d’action pour garantir la résilience des systèmes de santé, des institutions et des dispositifs médicaux connectés », a-t-elle déclaré. « Mieux vaut prévenir que guérir, et nous devons donc empêcher les cyberattaques. Mais si elles se produisent, nous devons tout mettre en place pour les détecter et être en mesure de réagir rapidement et de rétablir les environnements impactés. » L’agence européenne Enisa, propose notamment de créer un centre d’assistance où les hôpitaux et autres établissements de santé pourraient recevoir des conseils, des outils, des services et des formations.
Quatre priorités
Le plan s’est donné quatre priorités : d’abord, améliorer le travail de prévention, en fournissant par exemple des conseils sur la mise en œuvre de pratiques de cybersécurité critiques. Les États membres devraient introduire des « chèques » de cybersécurité pour soutenir financièrement les établissements de petite et moyenne taille et former le personnel de santé à la cybersécurité. Ensuite, afin de réagir plus rapidement aux cyberattaques, le plan propose de mettre en place, d’ici 2026, un service d’alerte en temps quasi réel sur les cybermenaces potentielles.
En troisième lieu, le plan veut renforcer la réponse aux attaques pour limiter les dommages en fournissant des services de gestion des incidents par des fournisseurs de services privés de confiance. Les États membres sont également encouragés à exiger la déclaration des paiements de rançon. Enfin, un dernier domaine concerne la dissuasion des acteurs de la menace en passant à l’offensive contre eux et en utilisant les outils disponibles pour fournir une réponse diplomatique conjointe de l’UE contre les cyber-activités malveillantes. Une consultation publique sur ce plan d’action entre les États membres de l’UE, les prestataires de santé et le secteur de la cybersécurité est en cours, et des recommandations sont attendues d’ici la fin de l’année. Des mesures spécifiques devraient être introduites en 2025 et 2026.

Sécurité informatique

En utilisant les LLM, le ransomware Funksec monte en puissance

Axé sur l’extorsion par chiffrement de fichiers et vol de données, le groupe derrière le ransomware Funksec a pris de l’ampleur. En s’appuyant sur les modèles d’IA, il montre comment les cybercriminels peuvent monter en compétence et renforcer leur dangerosité.
Comme le révèlent des rapports sur les menaces de décembre, un acteur présent dans le paysage du ransomware-as-a-service (RaaS) gravit rapidement les échelons. Baptisé Funksec, ce groupe semble exploiter la GenAI dans le développement de ses malwares. Il est à l’origine de 103 des 578 attaques de ransomware recensées en décembre dernier par l’éditeur de sécurité NCC Group. Soit 18 % des attaques. Or, cette activité dépasse largement celle de gangs beaucoup plus établis comme Clop, Akira et RansomHub. Cela dit, les chercheurs de la société de sécurité Check Point pensent que ses créateurs ne sont pas très expérimentés dans le développement de logiciels malveillants et qu’ils ont commencé leur carrière de cybercriminels dans des campagnes très politiques, un aspect toujours visible dans les autres outils de Funksec. Autre élément, « les résultats de notre analyse indiquent que le développement des outils du groupe, y compris le chiffreur, a probablement été assisté par l’IA, ce qui peut avoir contribué à leur itération rapide malgré le manque apparent d’expertise technique des auteurs », ont déclaré les chercheurs dans leur rapport.
Funksec est un opérateur RaaS qui se livre à une double extorsion par le biais du chiffrement de fichiers et du vol de données. Le groupe a lancé son site vitrine de fuites de données, où il a rapidement répertorié 85 victimes, ce qui est impressionnant pour un groupe qui n’a pas d’antécédents ou de liens apparents dans l’écosystème des ransomwares. Check Point explique en partie cette augmentation soudaine et ce grand nombre de victimes par les activités hacktivistes précédentes du gang. Un autre aspect qui distingue Funksec des autres groupes est que ses demandes de ransomware ne dépassent pas les 10 000 $ et qu’il vend également des données à des prix relativement bas, ce qui laisse penser qu’il se concentre davantage sur la quantité que sur la qualité dans la sélection des cibles.
Un programme de ransomware personnalisé
Le programme de ransomware utilisé par Funksec est écrit en Rust et il a d’abord été téléchargé sur le service d’analyse de logiciels malveillants VirusTotal par son créateur afin de se vanter de son faible taux de détection. Mais grâce à cela, les chercheurs ont pu trouver et analyser plusieurs variantes du programme qui ont toutes été téléchargées sur VirusTotal à partir de l’Algérie. De plus, alors que certaines versions comportaient une note de ransomware identifiant le groupe comme étant Funksec, d’autres comportaient une autre note attribuant l’attaque à une organisation appelée Ghost Algeria. L’auteur n’a pas non plus supprimé les variables de compilation, révélant un chemin appelé C:UsersAbdellah dans le code source.
Le ransomware essaye d’obtenir des privilèges élevés en utilisant des techniques connues pour les scripts PowerShell, puis procède à la désactivation du service de protection en temps réel Windows Defender, de l’enregistrement des événements de sécurité sur le système et ceux d’application, à la suppression des restrictions imposées à l’exécution de PowerShell et, enfin, à l’élimination des Shadow Copies des volumes afin d’empêcher la restauration du système. Le malware tente ensuite d’annihiler une longue liste de processus associés à divers programmes, notamment des navigateurs, des lecteurs vidéo, des applications de messagerie et des services Windows. Ce processus assure que l’accès aux fichiers potentiellement importants qui seront ensuite cryptés n’est pas verrouillé par ces applications.
Tous les lecteurs et sous-répertoires infectés
Le ransomware itère ensuite sur toutes les lettres de lecteur et remonte dans tous les sous-répertoires, en chiffrant tous les fichiers avec une liste d’extensions ciblées. La routine de cryptage des fichiers utilise l’algorithme ChaCha20 avec des clés éphémères. Les fichiers verrouillés portent l’extension .funksec. Selon les chercheurs de Check Point, le code du logiciel malveillant, dont une partie a également été téléchargée sur VirusTotal par son auteur, se sert de nombreuses fonctions d’appel redondantes et un flux de contrôle répétitif. Le code comporte aussi des commentaires en anglais parfait, signe que l’auteur a probablement utilisé l’assistance d’un grand modèle de langage (LLM) pour sa création.
L’utilisation d’un LLM est aussi visible dans certains des autres outils proposés à la vente par Funksec, notamment dans un script DDoS écrit en Python pour les saturations UDP et HTTP, dans un serveur et un client HVNC pour la gestion à distance, et dans un outil de scrapping de mots de passe pour les courriels et les URL. Certains outils et fuites du groupe contenaient des notes sur deux autres gangs appelés Ghost Algeria et Cyb3r Fl00d. Le groupe s’est par ailleurs aligné publiquement sur le mouvement « Free Palestine » et a déclaré que les États-Unis étaient une cible principale en raison de leur soutien à Israël. « Toutes nos attaques avec le nouveau programme de ransomware seront dirigées contre l’Amérique, ciblant le secteur gouvernemental, l’économie et les entreprises qui exportent et produisent pour l’État », a écrit le groupe dans l’un de ses messages.
Une montée en puissance imputable aux LLM
Plusieurs personnes sont associées à Funksec et en font la promotion sur les forums cybercriminels. Après tout, il s’agit d’une opération de ransomware en tant que service, c’est-à-dire qu’elle est commercialisée auprès d’autres cybercriminels qui peuvent devenir des affiliés et déployer le programme sur des ordinateurs en échange d’une commission. Le principal administrateur et promoteur de Funksec agit sous les identités de Scorpion et DesertStorm. Alors que leur profil YouTube indique que leur pays est la Russie, dans certaines captures d’écran, ils ont involontairement indiqué qu’ils se trouvaient en Algérie et que leur clavier était français. DesertStorm a été banni d’un important forum cybercriminel en novembre, mais un autre utilisateur connu sous le nom d’El_farado a continué à promouvoir Funksec.
Un autre utilisateur associé au service de tri de données du groupe se fait appeler XTN. Malgré un manque apparent d’expérience, l’ascension fulgurante de Funksec au sommet des statistiques sur les ransomwares prouve que les LLM abaissent la barrière des compétences pour permettre aux acteurs de la menace de réussir dans les attaques des ransomwares. Reste à voir si le groupe parviendra à gagner suffisamment de terrain, à attirer des affiliés et à continuer d’améliorer son programme de ransomware pour devenir une menace bien établie, pour prouver que son succès n’est pas un bon coup dû simplement à la chance.