Claude, Sam et les autres

-

Il y a quelques semaines, nous évoquions la possibilité de l’atteinte, à très court terme, par les IA de la « singularité » à savoir le moment où l’intelligence humaine serait dépassée avec à la clé, le risque de voir se réaliser le scénario de Terminator et l’indépendance autodéclarée du dispositif Skynet. 

Le 27 février s’est produit un événement qui est passé sous les radars notamment en Europe mais qui peut s’avérer lourd de conséquences. Après plusieurs jours de négociations intenses entre le Gouvernement américain et la société Anthropic, propriétaire de l’IA Claude (drôle de nom pour une IA) qui travaillait déjà pour le département de la Guerre, Donald Trump s’est emporté et a décidé de mettre fin au contrat. 

En cause, la volonté du Département de la Guerre ( Departement of War-DOW et pas de la Défense, les mots ont leur importance) d’avoir un accès illimité à Claude à « toutes fins légales ». Or, Anthropic mettait deux conditions : refus d’un usage lié à la surveillance de masse et surtout, refus de laisser à l’IA la possibilité de prendre des décisions autonomes dans un contexte militaire. 

Le Président américain a alors exigé que Claude soit retiré de toutes les agences gouvernementales dans les délais les plus brefs. Il a qualifié l’entreprise de « supply chain risk » ce qui revient presque à leur imputer des actes de haute trahison. 

Coup de théâtre le lendemain : OpenAI (ChatGPT) annonce avoir contractualisé avec le Département de la Guerre. Sur X, Sam Altman son PDG (trop content de mettre la pilée à son concurrent) se réjouit de ce contrat et indique que les outils d’OpenAI fonctionneront en circuit fermé (ironique non quand on sait qu’open veut dire « ouvert » ?) et que le Département a accepté les deux limites imposées : l’interdiction de la surveillance de masse intérieure et la responsabilité humaine quant à l’usage de la force y compris pour les systèmes d’armes autonomes. 

Pourquoi OpenAI aurait obtenu ce qu’Anthropic avait tenté de négocier sans succès ? Mystère. Ou peut-être qu’il y a dans ces accords, des clauses particulières dont on ne sait rien ou des formulations que l’on qualifiera de « subtiles ».  

Permettez-nous de douter de la parole d’un Gouvernement qui se restreindrait la main sur le cœur d’exploiter toutes les possibilités d’une IA notamment au motif de sécurité nationale et de « patriotisme ». 

Alors même que Sam Altman exprimait en mai 2023 devant le Congrès américain ses profondes inquiétudes sur l’IA qui pouvait devenir dangereuse et hors de contrôle. Le même qui conclut son tweet du 28 février par ces mots hallucinants « Nous restons déterminés à servir l’humanité toute entière du mieux que nous le pouvons. Le monde est un endroit complexe, chaotique et parfois dangereux. » 

Combien de milliards de dollars pour un tel revirement ? 

>Les usagers américains de ChatGPT ne s’y sont pas trompés et ont résilié en masse leur abonnement.  

De manière concomitante, dans la nuit du 28 février, les missiles américains et israéliens se sont abattus sur l’Iran. 

>Plusieurs médias américains ont révélé que le commandement militaire américain a utilisé les outils d'Anthropic à des fins de renseignement, ainsi que pour la sélection de cibles et la réalisation de simulations de champs de bataille. Usages militaires de Claude qu’Anthropic n’a pas refusés… 

Poker menteur ou jeux de guerre (cf le film « Wargames » 1983) ? L’histoire le dira. Ou pas. 

Les guerres ont toujours été des accélérateurs d’innovation. C’est ainsi. Les calculateurs de tirs de la deuxième guerre mondiale sont devenus nos ordinateurs et c’est la technologie des fusées V1 et V2 qui nous a emmenés sur la Lune. 

Mais là c’est autre chose, c’est une innovation civile qui vient d’être mise au service de la guerre.  

Une technologie qui selon une étude britannique publiée seulement quelques jours plus tôt révèlent que toutes les IA, dans toutes les simulations de guerres, refusent catégoriquement la conciliation et appuient toutes sur le bouton nucléaire. 

Tous les spécialistes le savent et le disent. Il y a toujours un moment où les IA prennent leur indépendance. Voire mentent. Voire trichent. Les exemples se sont multipliés ces dernières semaines. Alors imaginons qu’elles débloquent complètement avec des armes létales à portée de circuits…. 

Pourvu que l’année du Cheval de feu ne soit pas celle du feu tout court. 

Florence Berthelot

Haut de page