Over 10 years we help companies reach their financial and branding goals. Engitech is a values-driven technology agency dedicated.

Gallery

Contacts

411 University St, Seattle, USA

engitech@oceanthemes.net

+1 -800-456-478-23

Sécurité informatique

Avec Fastnet, AWS contrôle la connectivité transatlantique de ses services

AWS construit un câble sous-marin transatlantique du Maryland à l’Irlande opérationnel en 2028 d’une capacité de 320 térabits par seconde. Un apport pour les performances, mais qui peut inquiéter les DSI sur les risques de dépendance
et d’augmentation des coûts.
Amazon Web Services a annoncé le lancement de Fastnet, son dernier câble sous-marin à fibre optique transatlantique qui va relier le Maryland aux États-Unis en Irlande, soit une distance d’environ 5 300 km. Prévu pour être opérationnel en 2028, ce câble pourrait garantir la continuité des services AWS en cas de perturbations. « De plus, il permettra de créer une conception de réseau adaptée à la demande croissante de cloud, d’IA et d’applications de pointe qui utilisent les services AWS tels que CloudFront et Global Accelerator », selon le fournisseur. Afin d’assurer un réacheminement rapide des données et plusieurs niveaux de redondance, la capacité de Fastnet fournira plus de 320 térabits par seconde (Tbps) et inclura le système centralisé de surveillance du trafic en temps réel de la société afin de mettre en œuvre des millions d’optimisations quotidiennes pour éviter la congestion et d’autres problèmes avant qu’ils n’affectent les applications.
Taillé pour l’ère de l’IA
« Le système Fastnet sera doté d’une technologie évolutive et avancée de commutation optique positionnée sur le tracé du câble pour gérer les charges croissantes du trafic d’IA et s’adapter à la croissance future », a précisé le fournisseur. « Le trafic transatlantique est particulièrement sollicité en raison de l’asymétrie entre la formation des modèles d’IA basés aux États-Unis et la résidence des données et l’exécution des inférences en Europe », a expliqué Sanchit Vir Gogia, CEO et analyste en chef chez Greyhound Research. « Fastnet s’attaque directement à ce goulot d’étranglement en introduisant une marge de manœuvre à haute capacité et un itinéraire alternatif stratégiquement placé qui contourne les grappes de câbles encombrées de New York et du Royaume-Uni. Son extension entre le Maryland et l’Irlande correspond à la cartographie actuelle des actifs numériques par les entreprises : la côte est des États-Unis pour la densité de calcul et les zones d’atterrissage européennes pour l’alignement réglementaire. » Conçues pour offrir une fiabilité et des performances à long terme, les fibres optiques seront protégées par un blindage supplémentaire en acier dans les zones côtières afin de les protéger contre les activités naturelles et humaines.
La croissance explosive des charges de travail liées aux données et à l’IA de ces dernières années a poussé les hyperscalers à ne plus se contenter de s’appuyer sur une infrastructure partagée pour répondre à la demande, mais aussi à contrôler la couche de connectivité. « Pour des fournisseurs de cloud comme AWS, cela s’apparente à une intégration en amont. À mesure qu’ils construisent et possèdent des câbles sous-marins, le pouvoir passe des opérateurs de télécommunications traditionnels aux hyperscalers. Cela donne à ces derniers un plus grand contrôle sur la capacité, le routage et la gestion du réseau, et qu’ils soient adaptés à leurs besoins de services cloud et d’IA », a expliqué Pareek Jain, CEO d’EIIRTrend & Pareekh Consulting. Ce contrôle présente plusieurs avantages pour les DSI. « La propriété des câbles sous-marins par les hyperscalers améliore généralement l’efficacité opérationnelle en intégrant la gestion des câbles à l’infrastructure réseau cloud, ce qui permet une optimisation en temps réel et une gestion automatisée du trafic. Il en résulte une fiabilité et des performances accrues pour les utilisateurs finaux », a souligné M. Jain. De plus, grâce à la réduction du nombre de transferts, le débit sera meilleur et la récupération plus rapide en cas de problème.
Dépendance vis-à-vis des fournisseurs et répercussions sur les coûts
Cependant, cette consolidation accrue introduit de nouveaux risques pour les entreprises. La dépendance vis-à-vis d’une même entreprise pour l’exécution des calculs, le stockage et les routes de câbles sous-marins reliant les régions augmente le niveau de dépendance et la complexité de celle-ci avec les fournisseurs. « Cela signifie également que l’entreprise est plus exposée. Elle perd en visibilité sur l’acheminement ou la hiérarchisation du trafic, et sa résilience dépend des décisions d’un seul fournisseur. Si ce fournisseur change d’orientation, de tarification ou de politique, ses options se réduisent rapidement », glisse Sanchit Vir Gogia. Il ajoute « les entreprises doivent réfléchir sérieusement à l’influence qu’elles peuvent avoir lorsqu’un seul fournisseur possède les câbles, les capacités de calcul, les outils et les règles. Il ne s’agit plus d’une question de conception de réseau, mais d’une question de contrôle ». Techniquement, le rôle croissant des hyperscalers dans la construction et la propriété des câbles sous-marins peut avoir un impact significatif et généralement positif sur les coûts pour les entreprises, car il va de pair avec l’augmentation massive de l’offre et de la concurrence induite par ces câbles à haute capacité. Cependant, l’effet final sur les prix pratiqués par les entreprises est complexe.
M. Jain a suggéré que, même si, à terme, les câbles sous-marins appartenant aux hyperscalers peuvent réduire les coûts de transit réseau grâce à des économies d’échelle internes, l’effet sur la tarification des entreprises reste complexe. Les hyperscalers pourraient disposer d’un pouvoir de fixation des prix plus important, en particulier si leurs réseaux de câbles deviennent essentiels pour la connectivité cloud internationale à haute capacité. Cela pourrait conduire à des modèles de tarification favorisant les services cloud et réseau groupés, ce qui pourrait réduire la transparence des composants des coûts réseau pour les entreprises. « Les entreprises qui s’attendent à ce que Fastnet entraîne une baisse des factures de transfert de données dans le cloud se trompent sur la structure des prix », a fait remarquer M. Gogia. « Les économies réelles ne se concrétisent que lorsque les DSI traitent la connectivité comme une couche négociable, comparent les coûts totaux de l’architecture entre deux fournisseurs et imposent la prévisibilité des coûts à des seuils de réplication élevés. Sans ces mesures, les entreprises peuvent bénéficier d’une amélioration des performances, mais leur exposition économique reste inchangée, car elles dépendent d’une infrastructure sur laquelle elles n’ont plus aucune influence. »

Sécurité informatique

Des fausses pages captcha créées par l’IA servent pour du phishing

Les pirates exploitent des plateformes de codage à base d’IA comme Vercel, Netlify et Lovable pour créer des fausses pages d’authentification (captcha) dans le cadre de campagne de phishing.
L’usage de l’IA à des fins malveillantes ne cesse de progresser. Trend Micro vient de trouver une campagne de phishing s’appuyant des fausses pages captcha générées par des plateformes de codage IA. Ces pages semblent officiels aux yeux des utilisateurs, ce qui leur permet de contourner efficacement les filtres de sécurité et de capturer des informations sensibles. Les chercheurs ont constaté une recrudescence des ces pages en août.
Minimum de codage, maximum d’impact
Les pirates exploitent désormais des plateformes de codage à base d’IA comme Lovable, Netlify et Vercel. « Sur Lovable, ils peuvent utiliser l’IA pour générer une fausse page captcha ou de phishing, tandis que Netlify et Vercel facilitent l’intégration d’assistants de codage d’IA dans le pipeline CI/CD pour produire en masse de fausses pages captcha », a expliqué Trend Micro. Outre la facilité de déploiement, qui demande des compétences techniques minimales, l’hébergement gratuit rend ces opérations de phishing financièrement très accessibles. De plus, avec des domaines se terminant par *.vercel.app ou *.netlify.app, les attaquants profitent et abusent de la réputation et de la crédibilité de la plateforme.
« Contrairement aux pages de phishing traditionnelles, celles générées par l’IA représentent davantage une avancée en termes de vitesse et d’échelle qu’une astuce technique supplémentaire », a déclaré Devroop Dhar, directeur général et cofondateur de Primus Partners. « Elles peuvent itérer et créer très rapidement des pages ressemblant à celles des marques. Auparavant, la création de sites de phishing prenait du temps, mais aujourd’hui, ils peuvent être générés et clonés sur de nombreux domaines en quelques minutes, ce qui augmente le volume des attaques et le risque pour un employé de tomber sur un faux convaincant. » M. Dhar ajoute que l’IA réduit considérablement le niveau de compétence requis, car les attaquants n’ont plus qu’à récupérer un modèle, modifier quelques éléments pour créer rapidement un kit de phishing d’apparence professionnelle. Trend Micro a identifié 52 sites malveillants sur Vercel.app, contre 43 sur Lovable.app et 3 sur Netlify.app. Lovable a été la principale cible de ces abus, mais Vercel héberge actuellement encore plus de fausses pages Captcha
Mode opératoire de l’attaque
D’entrée de jeu, les campagnes de phishing suivent un mode opératoire bien connu. Généralement, les victimes reçoivent des courriels indésirables contenant des messages urgents et incitant à l’action, tels que « Réinitialisation du mot de passe requise » ou « Notification de changement d’adresse USPS ». En cliquant sur le lien intégré, l’utilisateur n’est pas redirigé directement vers un site destiné à voler ses identifiants, mais vers une page de vérification par captcha qui semble inoffensive.
Cette action engage activement la victime qui a l’impression d’effectuer un contrôle de sécurité légitime, ce qui la rend moins méfiante et moins à même de reconnaître la page comme frauduleuse. « Ensuite, les scanners automatisés qui explorent la page ne rencontrent qu’un captcha, et non le formulaire sous-jacent de collecte d’identifiants, ce qui réduit le risque de détection de l’arnaque », a fait remarquer Trend Micro. Une fois le captcha rempli, la victime est redirigée vers la page de phishing réelle, où ses identifiants et autres données sensibles peuvent être volés, notamment ses identifiants Microsoft 365.
Renforcer les défenses
À mesure que les campagnes de phishing basées sur l’IA contournent les filtres traditionnels, les entreprises repensent leurs défenses. Les passkeys et l’authentification multifactorielle (MFA) résistante au phishing gagnent du terrain, en particulier dans les services financiers et l’IT. Mais pour lutter contre la menace croissante des attaques de phishing basées sur l’IA, les entreprises doivent adopter une approche de sécurité à plusieurs niveaux. « Les stratégies les plus efficaces combinent désormais la détection comportementale et la responsabilité des plateformes. Les outils doivent être capables de simuler des clics et de suivre les redirections, et les hébergeurs doivent mettre en place des mesures de protection pour empêcher les abus », a expliqué Sanchit Vir Gogia, CEO et chef analyste chez Greyhound Research.
Cependant, la détection seule ne suffit pas. La résilience ultime réside dans la capacité à réduire la valeur des identifiants volés grâce à une authentification résistante au phishing. M. Gogia ajoute que les entreprises doivent moderniser leurs formations, en passant des cases à cocher à une immersion réaliste. Cela inclut des simulations de phishing avec des captcha, des politiques qui bloquent les domaines nouvellement enregistrés et une gouvernance stricte des identifiants de connexion. L’objectif n’est pas d’empêcher chaque clic, mais de réduire le temps entre l’incident et son endiguement. « Il faut être vigilant si la page redirige soudainement vers un formulaire de connexion ou commence à extraire des données de domaines non fiables. Ces schémas sont plus difficiles à dissimuler pour les attaquants. Il faut également surveiller le trafic sortant. Les données volées qui quittent le réseau sont souvent le premier signe d’une attaque », a recommandé M. Dhar. La sensibilisation des utilisateurs reste la première ligne de défense. Il est essentiel de former les employés à repérer les captchas suspects, à vérifier les URL avant d’interagir, à utiliser des gestionnaires de mots de passe qui ne remplissent pas automatiquement les pages frauduleuses et à signaler rapidement les anomalies.

Sécurité informatique

La CISA lance Thorium un outil open source d’analyse de malware

L’autorité américaine en charge de la cybersécurité vient de publier une plateforme open source nommée Thorium. Elle vise à rationaliser l’analyse des fichiers et des malwares à grande échelle.
Comme son homologue français (l’Anssi), la CISA n’hésite pas à mettre en avant des outils open source pour améliorer la sécurité des entreprises. En l’espèce, l’agence en partenariat avec Sandia National Laboratories vient de publier Thorium, une plateforme d’analyses des malwares et des fichiers collectés sur un incident. Elle apporte une aide aux équipes de sécurité d’une entreprise ou des enquêteurs. L’outil propose une automatisation évolutive des fichiers et…

Il vous reste 91% de l’article à lireVous devez posséder un compte pour poursuivre la lecture

Vous avez déjà un compte?

Sécurité informatique

IBM Cloud encore en panne

Échecs de connexion, problèmes d’IAM, perturbations du plan de contrôle… Tous les services IBM Cloud dont Watson AI et DNS Services étaient inaccessibles pendant des heures ce lundi dans toutes les régions.
IBM Cloud a subi lundi sa deuxième panne majeure en deux semaines, empêchant les utilisateurs du monde entier de se connecter, de gérer les ressources ou d’accéder aux services essentiels. L’incident, qui a duré plusieurs heures, a commencé à 11h05 le 2 juin. Il a perturbé 41 services, notamment IBM Cloud, AI Assistant, DNS Services, Watson AI, Global Search Service, Hyper Protect Crypto Services, les bases de données et le Security and Compliance Center. L’incident a été résolu mardi à 01h10. Selon le rapport d’IBM sur l’état de la situation, les utilisateurs n’ont pas pu se connecter à IBM Cloud via la console, le CLI ou l’API. Pendant cette période, ils n’ont pas pu non plus gérer ou approvisionner les ressources du cloud. De plus, des échecs d’authentification IAM se sont produits, l’accès au portail de support a été perturbé et les chemins de données pour les applications des clients peuvent avoir été affectés.
Big blue a commencé son enquête et pris des mesures d’atténuation préliminaires puis démarré un processus de récupération contrôlé pour restaurer le système. Après avoir terminé ses principales actions de restauration, et les utilisateurs ont pu vérifier l’état de leurs applications. L’événement a été classé de gravité 1 (Sev-1). Les clients ont reçu des courriels sur l’échec de l’authentification IAM, l’impossibilité d’accéder au portail de support, et les impacts potentiels sur les chemins de données des applications des clients. Le fournisseur n’a pas répondu immédiatement à une demande de commentaire.
Un incident similaire quinze jours avant
« Les interruptions de connexion au cloud, même si elles sont de courte durée, retardent l’accès aux applications clés, ralentissent la coordination interne et interfèrent avec les flux automatisés. Les pannes du cloud qui affectent la connexion des utilisateurs ou l’accès à la plateforme ne déclenchent pas toujours un chaos immédiat, mais elles introduisent des frictions qui s’aggravent rapidement », a déclaré Sanchit Vir Gogia, analyste en chef et directeur général de Greyhound Research. Selon M. Gogia, un impact multirégional ne se résume pas à un bogue d’authentification, mais pointe généralement vers un composant back-end partagé, comme une couche de résolution DNS globale, un contrôleur d’orchestration ou un service de télémétrie. « Contrairement aux pannes de calcul ou de stockage le plus souvent localisées, les faiblesses du plan de contrôle se répercutent sur les zones, rendant la panne plus difficile à contenir et plus perturbante pour les équipes qui gèrent des charges de travail distribuées. L’absence de découplage régional dans les fonctions de base de la plateforme reste une préoccupation pour les DSI qui doivent trouver des compromis de conformité, de performance et d’isolation », a poursuivi M. Gogia.
Le 20 mai, soit à peine plus de quinze jours avant, un incident similaire s’était déjà produit. Il avait duré deux heures et dix minutes et avait affecté 14 services, dont IBM Cloud, Client VPN for VPC, Code Engine et Kubernetes Service, entre autres. Au cours de cette panne globale de la plateforme cloud, les utilisateurs ont essuyé plusieurs échecs lorsqu’ils essayaient de se connecter via l’interface utilisateur (UI), l’interface de ligne de commande (CLI) et même l’authentification basée sur la clé API. « Quand les services de connexion ou d’IAM tombent en panne, les charges de travail critiques peuvent s’arrêter, déclenchant des perturbations en cascade à travers les services et les régions », a expliqué Prabhu Ram, vice-président du groupe de recherche sur l’industrie chez CMR.
Une question sur la résilience du cloud à se poser
De telles perturbations récurrentes mettent en évidence des implications plus larges de la stratégie informatique de l’entreprise, ce qui amène souvent les entreprises à se concentrer sur l’amélioration de la résilience de leur cloud au-delà des contrats avec les fournisseurs. « Pour atteindre une véritable résilience, les entreprises doivent s’employer en priorité à mettre en place des protections techniques solides, telles que des stratégies multi-cloud et des architectures géo-distribuées, et opter pour des protections contractuelles solides, y compris des accords de niveau de service (SLA) complets. Même si une seule panne n’entraîne pas nécessairement un changement immédiat, des pannes répétées ou une réponse inadéquate aux incidents peuvent obliger les entreprises à diversifier leurs fournisseurs de services cloud », a ajouté M. Ram.
Selon M. Gogia, aujourd’hui, le renforcement de la résilience va bien au-delà du stockage de secours et des centres de données secondaires. « Les entreprises investissent désormais dans l’observabilité multicouche, les outils d’orchestration multiplateforme et les voies d’accès secondaires qui restent disponibles même en cas d’interruption de la plateforme du fournisseur. Cela peut impliquer l’hébergement de portails d’administration légers en dehors du fournisseur principal, le déploiement d’une télémétrie en miroir dans une région distincte ou l’utilisation d’une gestion DNS indépendante. » Sans être catastrophiques, ces exemples récents de pannes du cloud constituent des tests de résistance utiles pour identifier les points faibles de l’architecture et de la politique.