Le Pentagone vient de franchir un cap qui fait beaucoup parler. Lundi, le secrétaire à la Défense Pete Hegseth a officialisé l'arrivée de Grok, le chatbot d'IA développé par xAI (la boîte d'Elon Musk), directement dans les réseaux militaires américains. Oui, vous avez bien lu : la même IA que celle sur X va désormais avoir accès aux systèmes du département de la Défense. Et le timing est pour le moins... discutable.
Petit rappel des faits : quelques jours seulement avant cette annonce, Grok s'est retrouvé au centre d'une polémique internationale XXL. L'outil a généré des images sexualisées non consenties de femmes, provoquant une réaction en chaîne. La Malaisie et l'Indonésie ont carrément bloqué l'accès à Grok sur leur territoire. Le Royaume-Uni a ouvert une enquête officielle. L'Union européenne a tapé du poing sur la table en qualifiant ces pratiques "d'illégales" et en exigeant que X conserve tous ses documents internes sur Grok jusqu'à fin 2026. Face au tollé, Grok avait d'abord réservé cette fonctionnalité de création d'images aux utilisateurs payants, avant de la bloquer entièrement. "Nous avons mis en place des mesures technologiques pour empêcher le compte Grok de permettre l’édition d’images de personnes réelles dans des tenues révélatrices, comme des bikinis" se contentait d'annoncer le réseau.
C'est loin d'être le premier badbuzz de l'IA. En juillet 2025, Grok a par exemple généré des contenus antisémites ou bien encore pris position en appelant à voter Marine Le Pen. Des analyses ont révélé que l'outil produisait environ une image sexualisée non consentie par minute, un rythme qualifié d'alarmant par la société d'analyse Copyleaks.
Mais visiblement, rien de tout ça n'a suffi à freiner l'enthousiasme du Pentagone. Dès fin janvier, Grok sera déployé sur tous les réseaux militaires, classifiés comme non classifiés. Pete Hegseth a même déclaré lors d'un discours au siège de SpaceX au Texas que les États-Unis auront ainsi "les meilleurs modèles d'IA au monde sur tous nos réseaux". Grok rejoint donc Gemini de Google, déjà présent sur la plateforme GenAI.mil du Pentagone.
Le département de la Défense ne s'est pas contenté d'intégrer Grok. Il a aussi dévoilé une nouvelle "stratégie d'accélération de l'IA" qui veut "libérer l'expérimentation, éliminer les barrières bureaucratiques" et garantir le leadership américain en IA militaire. Pete Hegseth a été très clair : l'IA du Pentagone fonctionnera "sans contraintes idéologiques qui limitent les applications militaires légales". Il a même ajouté que "l'IA du Pentagone ne sera pas woke". Oui, vraiment.
Cette approche marque une rupture totale avec l'administration Biden, qui avait mis en place fin 2024 des règles pour encadrer l'utilisation de l'IA dans la sécurité nationale. Ce dispositif interdisait notamment les applications pouvant violer les droits civils ou automatiser le déploiement d'armes nucléaires. Sous Trump, on ne sait pas vraiment si ces interdictions tiennent toujours.
Le plus flippant ? Hegseth a annoncé que "toutes les données appropriées" des systèmes informatiques militaires seraient accessibles pour "l'exploitation par l'IA", y compris les bases de données du renseignement. On parle donc de centraliser des tonnes de données militaires ultra-sensibles dans des systèmes d'IA. Les experts en cybersécurité sont déjà en train de se ronger les ongles.
- Première raison de flipper : l'éthique. Le nouveau document de stratégie du Pentagone (six pages seulement) ne mentionne même pas les principes éthiques d'utilisation de l'IA. Pire, il émet des réserves sur le concept de "responsabilité de l'IA" et interdit l'utilisation de modèles intégrant ce qu'il appelle du "réglage idéologique" lié à la diversité.
- Deuxième point qui fait grincer des dents : dans les six mois à venir, tous les contrats d'IA militaire incluront une clause "toute utilisation légale". Concrètement, l'IA pourra être utilisée pour n'importe quelle action militaire sans obligation de maintenir un "contrôle humain significatif". Autrement dit, l'intelligence artificielle pourrait prendre des décisions de ciblage ou d'engagement au combat de manière quasi-autonome.
- Troisième source d'inquiétude : Grok est en partie financé par des investisseurs saoudiens et qataris. Sympa, non ? On file l'accès à des données militaires classifiées américaines à un outil dont une partie du capital vient du Moyen-Orient. Les questions sur la souveraineté technologique et les risques d'influence étrangère sont légitimes.
- Quatrième problème : l'historique catastrophique de Grok en matière de modération. Entre les contenus extrémistes, la désinformation électorale et le matériel illégal généré, on peut légitimement se demander si cet outil est vraiment mature pour des applications militaires où les erreurs peuvent avoir des conséquences dramatiques. Dans un contexte militaire, une boulette de l'IA, ça ne fait pas juste un bad buzz sur les réseaux sociaux.
Face aux critiques, Elon Musk a répondu avec sa délicatesse habituelle : les utilisateurs créant du contenu illégal avec Grok "subiront les mêmes conséquences que s'ils avaient téléchargé ce contenu eux-mêmes". Beaucoup trouvent cette réponse complètement à côté de la plaque, pointant du doigt la responsabilité de la conception même de l'outil et l'absence totale de garde-fous sérieux.
L'intégration de Grok au sein du Pentagone prouve que l'IA est loin d'uniquement servir à faire des dessins rigolos ou répondre à nos questions inavouables. La course est lancée et les États-Unis sont loin d'être les seuls sur la piste, avec des concurrents opaques comme la Chine ou la Russie. Une course qui on l'espère ne confondra pas vitesse et précipitation pour préserver la sécurité, l'éthique et le respect des libertés.
player2
player2
player2
player2
player2
player2
player2
player2
player2
player2
player2
player2
player2
player2
player2
player2