Intelligence artificielle : Elon Musk et des centaines d’experts alertent sur les « risques majeurs pour l’humanité »

Mercredi 29 mars, des centaines d’experts mondiaux, parmi lesquels Elon Musk, ont alerté sur les risques d’un développement immodéré de l’intelligence artificielle.

Source potentielle de «risques majeurs pour l’humanité», la recherche sur l’intelligence artificielle (IA) doit faire une pause. Des centaines d’experts mondiaux, dont Elon Musk, ont signé une pétition en ce sens, ce mercredi 29 mars. Ils appellent à une trêve de six mois.

Ce moratoire permettrait selon eux de travailler à la mise en place de systèmes de sécurité et notamment de nouvelles autorités réglementaires dédiées. Ces experts recommandent de surveiller les systèmes d’IA mais aussi d’établir des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera».

Parmi les signataires de cette mise en garde figurent donc le propriétaire de Twitter et fondateur de SpaceX et Tesla, Elon Musk, mais aussi Yuval Noah Harari, historien et auteur du livre «Sapiens, une brève histoire de l’humanité». Le cofondateur d’Apple Steve Wozniak, ainsi que des membres du laboratoire d’IA de Google DeepMind soutiennent également le texte, de même que le patron de Stability AI Emad Mostaque et des experts en IA et universitaires américains, ingénieurs cadres de Microsoft.

Leur prise de position s’inscrit notamment en réaction au lancement de ChatGPT 4, le modèle d’OpenAI, à la mi-mars. Les progrès de l’intelligence artificielle ont également semé le trouble récemment avec la publication massive, sur les réseaux sociaux, de fausses images générées par des logiciels reposant sur l’IA. Certaines, reliées à l’actualité, ont alimenté les fake news.

DES «CERVEAUX NUMÉRIQUES» INCONTRÔLABLES

Les signataires de la pétition craignent de voir ces IA surpasser un jour leurs créateurs. Sam Altman, le patron d’OpenAI, concepteur de ChatGPT, a lui-même reconnu être «un petit peu effrayé» par sa création si elle était utilisée pour de «la désinformation à grande échelle ou des cyberattaques». A la mi-mars, il avait déclaré à ABCNews que «la société a besoin de temps pour s’adapter».

La pétition publiée ce mercredi reproche aux laboratoires d’IA de s’être «enfermés» ces derniers mois «dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable».

Anticipant les enjeux d’un développement immodéré de ces technologies, les experts s’interrogent : «Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ?».

Convaincus que cette perspective implique un risque réel «de perdre le contrôle de notre civilisation», les signataires appellent à la prudence : «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus».

Source : AFP / Cnews