Buterin réclame une pause mondiale de deux ans pour l’IA
Photo: Muhammad Alimaki/Shutterstock
Vitalik Buterin, le cofondateur d’Ethereum (ETH), a récemment exprimé son inquiétude face aux avancées rapides et incontrôlées dans le domaine de l’intelligence artificielle (IA). Selon lui, un tel rythme pourrait engendrer des problèmes majeurs pour l’humanité.
Une crainte face à l’IA
Il y a quelques jours, Buterin a évoqué un message qu’il avait publié en 2023, dans lequel il plaidait pour un concept appelé “accélérationnisme défensif” (d/acc). Ce modèle préconise une pause temporaire dans les développements de l’IA pour permettre à l’humanité de mieux se préparer à ses implications futures.
L’idée principale derrière le d/acc est de limiter l’accès mondial aux ressources computationnelles en suspendant temporairement la production de matériel informatique. Une telle mesure pourrait réduire de 99 % la puissance de calcul mondiale pendant une durée maximale de deux ans. Selon Buterin, ce délai donnerait le temps nécessaire pour établir des garde-fous autour de l’utilisation de l’IA.
Cette approche va à l’encontre de l’“accélérationnisme effectif” (e/acc), une philosophie prônant l’innovation technologique sans limites, qui reflète l’état actuel du secteur de l’IA.
Pendant cette pause, Buterin estime qu’il est essentiel de mettre en place des systèmes de responsabilité liés à l’utilisation de l’IA. Il suggère notamment la création de puces spéciales pouvant limiter l’accès aux appareils. Par exemple, ces puces ne permettraient le fonctionnement d’un appareil que si celui-ci reçoit trois signatures d’approbation hebdomadaires d’autorités internationales.
L’inquiétude face à une superintelligence artificielle
La superintelligence artificielle, bien que théorique pour l’instant, représente un modèle où l’intelligence de l’IA surpasserait celle de tous les humains combinés. Buterin craint que cette réalité ne devienne possible d’ici cinq ans, laissant peu de temps pour anticiper ses conséquences. Il considère cette éventualité comme extrêmement risquée.
Buterin n’est pas seul à tirer la sonnette d’alarme. Elon Musk, en 2023, avait déjà appelé à la mise en place de lois claires et de réglementations strictes sur l’IA. Cette initiative faisait suite à une lettre ouverte signée par des milliers de chercheurs et d’experts, y compris Musk lui-même. Ce document réclamait un arrêt temporaire des développements des systèmes d’IA avancés, tels que le ChatGPT d’OpenAI.
L’appel de Buterin s’inscrit donc dans une tendance croissante parmi les leaders technologiques à réclamer des pauses et des régulations face aux progrès de l’IA, soulignant l’importance de mettre l’éthique et la sécurité au cœur de l’innovation.
Alors que la communauté technologique s’interroge sur l’avenir de l’IA, la dernière tendance dans l’industrie des cryptomonnaies est l’intégration de l’intelligence artificielle dans les plateformes de trading et les projets blockchain, une évolution que nous avons abordée dans l’un de nos articles, soulignant les risques d’un développement incontrôlé de l’IA.