Over 10 years we help companies reach their financial and branding goals. Engitech is a values-driven technology agency dedicated.

Gallery

Contacts

411 University St, Seattle, USA

engitech@oceanthemes.net

+1 -800-456-478-23

Sécurité informatique

L’ONU va encadrer les usages de l’IA avec un traité

Face aux risques de dérives et usages de l’IA à mauvais escient, l’ONU demande aux Etats d’instaurer d’ici 2026 des règles internationales contraignantes pour l’encadrer.
Dans sa déclaration publiée lundi, l’ONU avertit que, sans règles internationales contraignantes, l’humanité fait face à des risques croissants, allant des pandémies artificielles et de la désinformation à grande échelle aux menaces pour la sécurité mondiale, aux violations systématiques des droits humains et à la perte de contrôle sur les systèmes avancés. Pour limiter ces dangers, l’organisation appelle les États à définir d’ici fin 2026 ce qu’elle qualifie de “lignes rouges de l’IA”, c’est-à-dire des limites à ne pas franchir pour l’intelligence artificielle.
Des interdictions et un traité en trois piliers
Dans un document de questions-réponses, l’ONU propose plusieurs interdictions possibles, comme l’utilisation de l’IA dans le commandement nucléaire ou pour des armes létales autonomes, la surveillance de masse, l’usurpation d’identité humaine via des systèmes capables de tromper les utilisateurs sans révéler qu’il s’agit d’IA, ou des usages malveillants en cybersécurité pouvant perturber des infrastructures critiques. L’organisation souhaite également interdire l’auto-réplication autonome ou le développement de systèmes que l’on ne pourrait pas arrêter en cas de perte de contrôle humain.
L’ONU insiste sur trois piliers pour tout futur traité : une liste claire des interdictions, des mécanismes de vérification auditable et une instance indépendante chargée de superviser la mise en œuvre. Pour autant, de nombreux analystes doutent de la faisabilité pratique et de l’efficacité de ces restrictions à l’échelle mondiale. Les préoccupations des analystes ne se sont pas concentrées sur ce que l’ONU tente, mais sur la question de savoir si suffisamment de pays la soutiendraient, si sa mise en œuvre fixé fin 2026 est assez tôt pour faire une différence et si elle est exécutoire de manière significative.
Des experts sceptiques sur l’impact réel
Les analystes soulignent que les règles de l’ONU pourraient affecter les entreprises, surtout en matière de conformité, même si elles visent principalement les hyperscalers et fournisseurs d’IA. Certaines restrictions pourraient concerner l’usage de l’IA pour sélectionner des candidats, accorder des crédits ou entraîner des modèles sur des données confidentielles. Les entreprises devraient respecter les régulations des pays signataires, comme l’Allemagne, le Canada, la Suisse ou le Japon, qui disposent déjà de leurs propres règles. Valence Howden, consultant chez Info-Tech Research Group, reconnaît les bonnes intentions de l’ONU mais doute de la faisabilité de son projet. Selon lui, les risques liés à l’IA dépassent les frontières, ce qui rend la protection des organisations très complexe. Il ajoute, que même si l’initiative de l’institution onusienne était adoptée, il est peu probable que les principaux hyperscalers, respectent ces règles. 
Brian Levine, ancien procureur fédéral et directeur de FormerGov, estime que la mesure de l’ONU sera probablement adoptée, la plupart des pays soutenant les principes fondamentaux. « Mais ces principes resteront très généraux et ne feront pas avancer les choses de manière concrète », note-t-il. Selon lui, accepter la proposition comporte peu de risque, les pays considérant que « de toute façon, elle ne sera pas applicable ». L’ONU a déjà mené des initiatives similaires, comme il y a environ 11 ans, lorsqu’elle a tenté d’interdire les robots tueurs autonomes, sans résultats significatifs. Peter Salib, professeur adjoint de droit à l’Université de Houston, souligne que les systèmes de génération d’IA actuels rendent les risques beaucoup plus tangibles qu’en 2014. Toutefois, il doute que l’initiative actuelle produise un changement concret : « Probablement, rien de significatif ne se passera. Les pays tiennent avant tout à leur souveraineté. » 

Sécurité informatique

OpenAI plaide pour régulation minimale sur l’IA aux US

Soumise récemment dans le cadre du futur “plan d’action IA” de l’administration Trump, la proposition d’OpenAI recommande d’aller vite, mais avec une régulation allégée.
L’arrivée de Donald Trump à la présidence des États-Unis a été marquée par la suppression de plusieurs décisions ou réglementations de son prédécesseur. C’est le cas en matière d’IA où Joe Biden avait signé un executive order en 2023 sur ce sujet. La nouvelle administration repart donc d’une feuille blanche et a soumis son futur “plan d’action sur l’IA” à commentaires. Dans sa contribution à la consultation gouvernementale, OpenAI soutient que la régulation fédérale (plus libérale) doit prévaloir sur les cadres plus restrictifs adoptés par certains Etats (comme en Californie). De plus, l’entreprise dirigée par Sam Altman alerte sur les efforts de régulation de l’IA en Chine, qu’elle considère comme un défi pour les développeurs américains, et propose que les États-Unis adoptent un modèle similaire, fondé sur une coopération étroite entre le gouvernement et les entreprises d’IA.
La société a recommandé au gouvernement de collaborer avec le secteur privé pour éviter que des règles trop strictes ne désavantagent les entreprises américaines d’IA face à la Chine. Dans son rapport de 15 pages, il propose de créer un espace d’expérimentation pour les start-ups, où elles bénéficieraient de protections juridiques et seraient exemptées de certaines réglementations sur la sécurité des modèles d’IA avancés. Par ailleurs, le fournisseur souhaite obtenir des informations classifiées et des outils de threat intelligence sur les menaces potentielles pour mieux gérer les risques liés à la sécurité nationale. Dans une note de bas de page, il est rappelé que ces modifications nécessitent l’approbation du Congrès : “La préemption fédérale sur les lois étatiques existantes ou potentielles nécessitera un acte du Congrès”.
Un accès aux contenus sous copyright et une limitation des exportations
La contribution précise qu’OpenAI souhaite s’entraîner sur des données protégées par le droit d’auteur. Un moyen pour la société d’éviter les procès des ayants droits réclamant leur dû. Là encore, elle met en avant le risque d’être en retard par rapport à la Chine. L’administration semble entériner la doctrine du fair use, en permettant aux entreprises américaines d’avoir des exemptions dans l’usage des données pour entraîner leurs modèles d’IA. Parmi les autres points soulevés par le fournisseur de LLM, il milite pour un soutien à l’innovation en IA en collaborant avec les entreprises de toutes tailles. Cela implique des tests dans des zones sécurisées et une coopération pour protéger la sécurité nationale tout en évitant des régulations trop strictes.
Il est aussi proposé de limiter l’exportation des technologies d’IA vers la Chine, tout en soutenant le développement des systèmes compatibles avec les valeurs démocratiques. Enfin, il est essentiel de moderniser les processus gouvernementaux pour intégrer l’IA rapidement, notamment en renforçant la cybersécurité de ces outils et en facilitant les expérimentations dans les agences fédérales.
Des propositions dans le sens de la Maison Blanche
L’analyste senior de Forrester, Alla Valente, estime que la plateforme cherche avant tout à dire « ce que tout le monde veut entendre ». Selon elle, l’entreprise s’aligne clairement sur les attentes de la Maison Blanche : « Si vous êtes développeur, nous voulons que vous innoviez en toute liberté et que vous vous débarrassiez de toutes ces réglementations étatiques encombrantes. » D’autres analystes partagent cet avis et soulignent que les réglementations des États sur l’IA sont susceptibles d’être plus rigoureuses, en particulier en ce qui concerne la protection des droits, de la vie privée et de la sécurité. Du point de vue des entreprises IT, la proposition d’OpenAI pourrait être intéressante car elle simplifierait les réglementations à suivre et éviterait les contradictions entre différentes lois. Toutefois, de nombreux DSI de grands comptes doivent déjà gérer des règles de conformité sur l’IA, notamment en Australie, dans l’UE, au Royaume-Uni, au Canada et au Japon, où certaines sont contradictoires. Malgré la déclaration d’OpenAI soulignant la simplicité, « cela pourrait créer plus de complexité. La véritable simplicité serait une coopération mondiale », ajoute Alla Valente. 
Par ailleurs, Reece Hayden, analyste principal de l’IA chez ABI Research, a salué l’approche d’OpenAI sur les enjeux d’infrastructure, notamment la modernisation des réseaux énergétiques américains, souvent négligée au profit des questions d’efficacité et de sécurité. Dave Schubmehl, vice-président de la recherche chez IDC, reste néanmoins sceptique sur la portée de cette initiative. Selon lui, « la réglementation de l’IA au niveau de l’État est probablement une évidence », mais il reconnaît « qu’OpenAI tente de centraliser la réglementation. »