
L’IAG, c’est le graal des géants de la tech. Une superintelligence qui résoudrait tous les problèmes de l’humanité, assumerait toutes les tâches humaines – des plus serviles, comme le ménage, aux plus complexes, comme guérir toutes les maladies. Voilà du moins ce qu’en disent ses promoteurs, à commencer par Sam Altman, fondateur d’OpenAI (père de ChatGPT). Mais dès qu’on cherche à en savoir un peu plus sur la nature de cette superintelligence, les choses deviennent beaucoup moins claires.
L’IAG est un « fantasme mal défini », titrait Sciences et Avenir en janvier 2026.
Les IA actuelles sont toutes spécialisées
Rappelons d’abord que les intelligences artificielles actuelles sont toutes spécialisées. Les IA génératives comme ChatGPT ou Gemini, qui produisent textes et images, sont des cerveaux aveugles et sans bras – donc impotents, incapables de vous préparer un café. Inversement, les IA qui équipent les voitures autonomes peuvent voir, reconnaître et piloter en conséquence, mais ne savent ni créer des images, ni jouer aux échecs, ni établir un diagnostic médical.
- Première conception : le robot factotum. Une première idée de l’IAG consiste à imiter l’intelligence humaine polyvalente : une machine capable comme un humain de servir un café, conduire une voiture, jouer aux échecs. Une telle intelligence générale ne serait pas forcément supérieure aux humains. Elle pourrait jouer le rôle de robot à tout faire, compagnon docile qui se charge de nos corvées.
- Deuxième conception : le general problem solver. Tout autre est l’idée d’une IAG surpuissante, capable de résoudre tous les problèmes. Cette conception du « general problem solver » constitue le mythe fondateur de l’intelligence artificielle. Dès 1956, lors du congrès fondateur de Dartmouth, Herbert Simon et Allen Newell avaient envisagé de réaliser une IA généraliste. Ce fut un échec. Toutes les IA actuelles sont spécialisées.
Il existe d’autres conceptions de l’IAG. Elle pourrait être autogénératrice, capable d’évoluer – c’est en partie déjà le cas. L’IAG peut encore être conçue comme une IA « consciente », sensible, émotive…
Alors, qu’est-ce que l’IAG ?
Au final, qu’est-ce que l’intelligence artificielle générale ? Un robot factotum, assistant de nos tâches quotidiennes comme dans les récits de science-fiction ? Un cerveau surpuissant qui surpasse les humains dans les tâches réputées intelligentes ? Une sorte de dieu vivant, omnipotent, omniscient et capable d’autocréation ?
En fait, les ingénieurs de l’IA ne le savent pas eux-mêmes. L’IAG est un mythe.
Sauf qu’il s’agit d’un mythe mobilisateur. Ce mythe ne serait qu’un doux rêve d’ingénieurs illuminés et mégalomanes s’il n’impliquait des investissements colossaux dans des choix technologiques et industriels. Ceux-ci auront des incidences majeures sur l’avenir de l’humanité.
Comme souvent dans l’histoire, cette aventure peut prendre des directions différentes sans que les concepteurs aient une vision claire de ce qu’ils sont en train de faire.
Sam Altman a tout de même une bonne raison de nous faire miroiter pour bientôt l’IA générale et ses prodigieuses capacités. OpenAI, dont il est à la tête, s’avère une entreprise déficitaire, qui ne tire encore aucun revenu de ses activités. Chaque année, elle engloutit des milliards d’investissements dans la recherche et de grands data centers. L’espoir est que bientôt elle pourra générer des dividendes de ses activités, mais c’est loin d’être le cas. Faire miroiter l’avènement prochain de l’IA, c’est la condition pour que les investisseurs continuent de financer le projet.




Le livre « Nexus » de Y.N. Harari présente la longue histoire des réseaux d’information « de l’âge de Pierre à l’IA ». Harari nous incite à prendre l’IA au sérieux, à considérer cette technique nouvelle pour ce qu’elle est: l’émergence d’une véritable intelligence inorganique « qui pourrait bien échapper à notre controle » car elle est capable d’autonomie, et elle est dangereuse car elle dispose de bases d’informations centralisées quasiment illimitées. Pouvons-nous rester maîtres de cette technique ? Cette question revient à savoir si la loi du laisser faire du libéralisme économique nous permet d’obliger les firmes à introduire des mécanisme d’autocorrection dans les programmes d’IA pour éviter des dérives catastrophiques.
L’IAG est évidemment, en l’état actuel, un formidable instrument permettant de résumer et surtout de synthétiser les connaissances acquises dans tous les domaines
Avec l’IA nous parvenons à resoudre plusieurs problements dont nous étions incapable de faire.
C’est tout un accademie pour nous depuis la maison