Afficher le sommaire Masquer le sommaire
Imaginez un monde où le même facteur de peur que nous associons à la perspective d'une guerre nucléaire est lié à la menace imminente de l'intelligence artificielle. Le créateur de ChatGPT, Sam Altman, avec plusieurs autres noms notables de l'industrie technologique, tire la sonnette d'alarme, affirmant que le risque potentiel d'extinction par l'IA doit être traité aussi sérieusement que d'autres événements catastrophiques mondiaux.
L'essor de l'intelligence artificielle est-il une menace globale d'extinction ?
Imaginez vous réveiller un jour de plus avec un avertissement sur la manière dont l'intelligence artificielle pourrait anéantir notre civilisation. Cette fois, il vient de grands entrepreneurs, experts et scientifiques de haut niveau, menés par Sam Altman, le créateur de ChatGPT. Ils ont publié une déclaration brève affirmant que le « risque d'extinction » potentiel posé par l'IA doit être considéré avec la même gravité que d'autres événements catastrophiques mondiaux comme une guerre nucléaire.
La déclaration plutôt brève porte la signature de personnalités notables dans le monde de l'IA, mais elle est étonnamment succincte. C'est une poignée de mots qui résume une expression de préoccupation, plutôt qu'un plan d'action spécifique pour éviter l'anéantissement supposé. « Atténuer le risque d'extinction par l'IA devrait être une priorité mondiale, au même titre que d'autres risques à l'échelle sociale comme les pandémies et la guerre nucléaire« , lit-on dans la déclaration publiée sur le site web du Center for AI Safety, une organisation à but non lucratif.
Ouvrir le débat : le message caché derrière la brièveté
Il y a une raison à une déclaration aussi brève pour exprimer un avertissement si grand. Selon l'organisation, de nombreuses parties, y compris des experts, des législateurs, des journalistes et le grand public, discutent aujourd'hui des risques de l'intelligence artificielle. Cependant, ils trouvent difficile de communiquer de manière simple et percutante les dangers les plus graves et immédiats apportés par la technologie. Par ce message, ils visent à « ouvrir la discussion » et à identifier les experts qui prennent ce problème au sérieux.
Il est à noter que Sam Altman n'est pas le seul signataire de ce message. D'autres noms comme Demmis Hassabis, PDG de Google Deepmind, Dario Amodei, PDG d'Anthropic, Emad Mostaque, PDG de Stability AI, ou Kevin Scott, directeur de la technologie de Microsoft, figurent également sur la liste. Des chercheurs renommés tels que Geoffrey Hinton, Yoshua Bengio et Lex Fridman font également partie des signataires.
ChatGPT et d'autres IA représentent-ils un risque d'extinction pour la civilisation ?
Le communiqué, bien que exprimant une préoccupation pour l'IA, invite à lire entre les lignes. Ce qu'ils disent ne signifie pas nécessairement qu'ils croient que Bard ou ChatGPT sont capables de devenir Skynet et de déclencher la rébellion des machines.
Cependant, ils font valoir que l'impact de l'intelligence artificielle sur la vie quotidienne de millions de personnes ne doit pas être laissé au hasard. Par conséquent, ils estiment nécessaire d'étudier et de mettre en place les mesures de sécurité nécessaires pour que, à l'avenir, l'IA ne puisse pas être appliquée à des méthodes destructrices dont la gravité est au même niveau qu'une guerre nucléaire ou une pandémie. Un point qui va de pair avec le débat sur la régulation de cette technologie.
Rechercher l'équilibre : L'avenir de l'IA
Si les risques de l'IA correspondent vraiment à d'autres événements catastrophiques, il sera intéressant de voir comment sa régulation potentielle est abordée. Cela dépend beaucoup plus que de la seule bonne volonté des experts et des scientifiques. L'implication des législateurs sera également cruciale ; sans parler des entreprises qui investissent aujourd'hui des milliards de dollars.
Mais n'oublions pas que les dangers de l'intelligence artificielle ne sont qu'une partie d'une histoire beaucoup plus large, et que la technologie comporte également de grands avantages potentiels pour l'humanité. Surtout en matière d'éducation et de santé. C'est pourquoi, comme l'a récemment déclaré Bill Gates, il est nécessaire de trouver un équilibre. « Nous devrions essayer d'équilibrer les peurs liées aux inconvénients de l'IA, qui sont compréhensibles et valides, avec sa capacité à améliorer la vie des gens. Pour tirer le meilleur parti de cette technologie nouvelle et remarquable, nous devons nous protéger contre les risques et distribuer les avantages au plus grand nombre possible de personnes« , a déclaré le co-fondateur de Microsoft.