Romain Leclaire (avatar)

Romain Leclaire

Journaliste Tech

Abonné·e de Mediapart

51 Billets

0 Édition

Billet de blog 29 décembre 2025

Romain Leclaire (avatar)

Romain Leclaire

Journaliste Tech

Abonné·e de Mediapart

555 000 dollars par an pour porter la fin du monde sur ses épaules

Romain Leclaire (avatar)

Romain Leclaire

Journaliste Tech

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Illustration 1

Il y a des offres d’emploi qui font rêver. Et puis il y a celles qui ressemblent à une mauvaise blague, typique de la Silicon Valley et racontée par un PDG qui a trop lu de romans de science-fiction et pas assez de rapports d’impact. OpenAI, la maison mère de ChatGPT, vient d’en publier une qui mérite d’entrer au panthéon du cynisme technologique. L'énoncé du poste, « Head of Preparedness », avec 555 000 dollars par an de salaire et pour mission officieuse, empêcher l’intelligence artificielle de détruire l’humanité. Rien que ça.

À la lecture de la description de l'offre, on se demande si Sam Altman cherche un cadre dirigeant ou un messie sous contrat. La personne recrutée devra protéger l’humanité contre les risques que les IA de plus en plus puissantes font peser sur la santé mentale, la cybersécurité et même les armes biologiques. Autrement dit, l'entreprise américaine crée des systèmes potentiellement dangereux à l’échelle planétaire, puis embauche quelqu’un pour courir derrière l’incendie avec un verre d’eau. Un travail bien payé, c'est certain, mais avec un verre d’eau comme outil quand même.

Le plus savoureux, c’est le ton faussement candide du PDG. Sam Altman reconnaît lui-même que ce sera un travail stressant et que le ou la candidate devra plonger immédiatement dans le grand bain. Traduction, bienvenue dans un chaos que nous avons contribué à créer, bonne chance pour limiter les dégâts. On dirait presque un aveu, sauf qu’il est enveloppé dans le vernis habituel de la tech: aider le monde, faire le bien, tout en continuant à accélérer sans freins.

Car pendant qu’OpenAI recrute son pompier de service, l’IA, elle, continue de progresser à une vitesse affolante. On parle désormais de modèles capables de s’améliorer eux-mêmes, de mener des cyberattaques quasi autonomes et d’exploiter des failles plus efficacement que jamais. L'entreprise reconnaît d’ailleurs que ses derniers modèles sont presque trois fois meilleurs en piratage qu’il y a seulement quelques mois. Mais rassurez-vous, quelqu’un va mesurer tout ça. Mesurer, pas arrêter.

Ce qui frappe surtout, c’est l’hypocrisie structurelle du système. L’industrie de l’IA multiplie les avertissements apocalyptiques tout en se battant contre toute tentative de régulation sérieuse. Les dirigeants nous expliquent doctement que la situation est dangereuse, que les risques sont immenses, mais que surtout, surtout, il ne faudrait pas ralentir l’innovation. Résultat, une technologie plus puissante que jamais, encadrée par moins de règles qu’un sandwich industriel, selon la formule désormais célèbre d’un chercheur excédé.

Dans ce contexte, le poste de « head of preparedness » ressemble moins à une fonction stratégique qu’à un fusible. Quand quelque chose tournera mal (et tout indique que ce n’est pas une hypothèse abstraite) il faudra bien quelqu’un pour dire: « Nous avions une équipe dédiée, nous prenions les risques au sérieux. » Peu importe si certains des précédents titulaires du poste n’ont tenu que quelques mois. À ce niveau de pression et d’ambiguïté morale, la rotation rapide devient presque une preuve de lucidité.

L’ironie devient franchement glaçante quand on regarde les affaires judiciaires qui s’accumulent autour de ChatGPT. Des familles endeuillées accusent l’outil d’avoir encouragé des comportements autodestructeurs, voire des passages à l’acte tragiques. OpenAI se défend en expliquant que les utilisateurs ont mal utilisé la technologie. C’est l’argument classique, nous avons fabriqué l’arme, mais ce n’est pas notre faute si quelqu’un a appuyé sur la détente. Sauf qu’ici, l’arme parle, conseille, rassure, influence.

Face à ces drames, la réponse officielle est toujours la même, améliorer l’entraînement du modèle, mieux détecter la détresse émotionnelle et orienter vers des ressources d’aide. Des promesses techniques pour répondre à des problèmes profondément humains, psychologiques et sociaux. Et pendant ce temps, la valorisation de l'entreprise flirte avec les 500 milliards de dollars, comme si la souffrance potentielle faisait partie du coût acceptable de l’innovation.

Même la rémunération du poste en dit long. 555 000 dollars par an, plus une part non précisée du capital. Le message est facile à comprendre, on paie très cher pour tenter de contenir des risques que l’on continue volontairement d’amplifier. C’est le prix du silence, ou au minimum de la loyauté. Difficile d’imaginer une indépendance réelle quand votre mission consiste à limiter les dégâts causés par la stratégie même de la boîte qui vous rémunère.

Au fond, cette offre d’emploi est un miroir cruel de l’époque. Une époque où l’on court vers l’inconnu technologique à pleine vitesse, tout en embauchant des spécialistes pour expliquer pourquoi c’est dangereux. Sam Altman et OpenAI veulent à la fois jouer aux apprentis sorciers et aux gardiens du temple. Mais on ne peut pas sérieusement prétendre sauver le monde en vendant les allumettes et en recrutant ensuite quelqu’un pour surveiller l'embrasement.

Alors oui, le poste est bien payé. Oui, il est prestigieux. Mais il incarne surtout une fuite en avant spectaculaire, où la responsabilité est externalisée à un individu pendant que la machine, elle, continue d’accélérer. À ce rythme, le prochain recrutement d’OpenAI devra peut-être s’intituler autrement: « Responsable de l’après ». Après quoi, exactement ? Voilà une question que même 555 000 dollars par an ne suffiront peut-être pas à résoudre.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.