Des experts mondiaux, y compris Elon Musk, ont appelé à un moratoire de six mois sur la recherche sur les intelligences artificielles (IA) plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé en mars, en invoquant les «risques majeurs pour l’humanité».
Dans une pétition sur le site futureoflife.org, les signataires demandent un moratoire jusqu’à la mise en place de systèmes de sécurité, de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera».
Les signataires comprennent également le cofondateur d’Apple Steve Wozniak, des membres du laboratoire d’IA de Google DeepMind, le patron de Stability AI Emad Mostaque, concurrent d’OpenAI, ainsi que des experts en IA et universitaires américains, des ingénieurs cadres de Microsoft, groupe allié de OpenAI.
Les créateurs de ChatGPT eux-mêmes ont exprimé leur inquiétude quant à leur création, reconnaissant que s’ils étaient utilisés pour de la «désinformation à grande échelle ou des cyberattaques», ils pourraient être effrayants. Les laboratoires d’IA sont entrés dans une course effrénée pour développer et déployer des cerveaux numériques toujours plus puissants, qui ne peuvent être compris, prédits ou contrôlés de manière fiable, affirment les signataires. Ils se posent également des questions sur l’automatisation de tous les emplois, y compris ceux qui sont gratifiants, et sur le risque de perdre le contrôle de la civilisation.