06 51 09 86 07 franck.canonne@gmail.com       RQTH Franck Canonne  RQTH          CV Franck Canonne  CV          LinkedIn  LinkedIn   

Le patron d’OpenAI, Sam Altman, confesse avoir été bouleversé en testant un nouveau modèle d’IA, vraisemblablement GPT‑5. Ce qu’il décrit n’a rien d’un simple moment de doute technique : il parle d’un vertige, d’une perte de contrôle, d’un parallèle avec le projet Manhattan. Rien que ça.

Sam Altman, PDG d’OpenAI, a récemment confié qu’un moment de test avec le successeur de GPT‑4, qu’on peut sans grand doute qualifier de GPT‑5, l’a ramené à une image historique : celle des physiciens du projet Manhattan, réalisant un peu tard ce qu’ils avaient mis en branle. “Il y a eu un moment qui m’a vraiment marqué. Ça m’a rappelé le projet Manhattan”, explique-t-il. Ce n’est pas une formule choc pour faire le buzz. C’est un aveu, celui d’un malaise profond face à une technologie devenue, peut-être, trop rapide pour l’humain.

GPT‑5 : un modèle qui va “très vite”

Ce qui frappe Altman, ce n’est pas uniquement la puissance brute du modèle, mais sa vitesse de progression. “Il y a quelque chose dans ce système qui le rend vraiment très rapide. Ça me rend nerveux” , affirme-t-il. Et il ne dit pas cela à la légère. C’est une réaction viscérale, celle d’un bâtisseur qui regarde sa création et se demande si elle n’est pas déjà en train de lui échapper. Il poursuit : “Je pense qu’il est sain d’avoir un peu peur de la technologie qu’on construit.

GPT‑5 n’a pas encore été déployé publiquement, mais son lancement est prévu pour début août. Les phases de test internes, quasiment achevées, laissent entrevoir un modèle nettement plus agile, réactif, peut-être même stratégiquement autonome sur certaines tâches. Une IA qui “surprend” même ses propres concepteurs.

Il y a quelque chose dans ce système qui le rend vraiment très rapide. Ça me rend nerveux. […] Il n’y a plus personne pour arrêter ça.
Sam Altman, PDG d’OpenAI, au micro de Theo Von

“Il n’y a plus personne pour arrêter ça” : l’IA avance sans pilote

Altman ne s’inquiète pas que de l’outil. Ce qui le préoccupe, c’est le vide autour. “Il n’y a plus personne pour arrêter ça.
Cette phrase, terrible, dit beaucoup : le développement de l’intelligence artificielle avance plus vite que sa régulation. Il n’y a ni organisme international de contrôle, ni garde-fou technique interopérable, ni consensus sur les limites à poser. C’est une course. Et dans cette course, même les meneurs lèvent les bras pour dire : on ne sait plus trop où on va.

Faut-il avoir peur de GPT‑5 ? Même Sam Altman le suggère

Certains diront qu’il exagère, qu’il dramatise. Mais il faut replacer ses propos : Altman ne s’adresse pas à un comité de bioéthique. Il ne cherche pas à alerter les régulateurs. Il parle franchement, presque à bâtons rompus. Et ce qu’il partage, c’est une réalité de terrain : les modèles actuels apprennent vite, improvisent, et offrent des résultats qui échappent parfois à la logique explicite.

Ce n’est pas comme s’il y avait un adulte dans la pièce pour dire : “Très bien, on arrête tout. On coupe.”
Sam Altman

Cela ne veut pas dire que GPT‑5 sont dangereux. Mais cela signifie que son déploiement, mal encadré, pourrait l’être. On a vu ce que GPT‑4 pouvait déjà produire — hallucinations convaincantes, clones de style humain, générateurs de code malveillant. Il est donc raisonnable de s’interroger sur ce que la prochaine version rendra accessible à grande échelle.

C’est une bonne chose d’avoir un peu peur”, répète Altman. Cette lucidité, qu’on aimerait plus fréquente dans le secteur, pourrait justement être le début d’un sursaut. Reconnaître que ces modèles ne sont plus seulement des outils, mais des systèmes complexes aux comportements parfois émergents, c’est le point de départ d’un débat éthique, politique, juridique.

Altman, en creux, nous pose une question : est-il encore temps de réfléchir, ou est-on déjà condamnés à accompagner passivement une technologie qu’on ne gouverne plus ?

Source : Les Numériques

error: Non, désolé...
Share This