Brad Smith de Microsoft affirme que l'IA pourrait être transformée en arme
MaisonMaison > Blog > Brad Smith de Microsoft affirme que l'IA pourrait être transformée en arme

Brad Smith de Microsoft affirme que l'IA pourrait être transformée en arme

Aug 24, 2023

Les humains doivent garder le contrôle des machines superintelligentes à tout moment pour garantir qu’elles ne peuvent pas être utilisées comme armes, selon un haut dirigeant du principal développeur d’IA Microsoft.

Dans une interview accordée à CNBC diffusée lundi, le président du géant de la technologie, Brad Smith, a averti que l'intelligence artificielle pourrait « devenir à la fois un outil et une arme ».

Il n'est pas le seul grand nom de la technologie à tirer la sonnette d'alarme sur les éventuelles capacités destructrices de l'IA : deux des soi-disant « parrains de l'IA » et les fondateurs du créateur de ChatGPT, OpenAI, ont émis de sombres avertissements sur les perspectives de la technologie.

Le PDG de Tesla, Elon Musk, est allé jusqu’à avertir que cela pourrait être le catalyseur de la fin de l’humanité.

"Je pense que chaque technologie jamais inventée [a] le potentiel de devenir à la fois un outil et une arme", a déclaré Smith à Martin Soong de CNBC. « Nous devons garantir que l’IA reste soumise au contrôle humain. Qu'il s'agisse d'un gouvernement, de l'armée ou de tout autre type d'organisation qui envisage d'utiliser l'IA pour automatiser, par exemple, des infrastructures critiques, nous devons nous assurer que nous avons le contrôle sur les humains, que nous pouvons ralentir ou éteindre les choses. »

Microsoft lui-même est un gros investisseur dans l'IA, ayant investi 10 milliards de dollars dans OpenAI plus tôt cette année et incorporé le chatbot génératif d'IA ChatGPT de la société dans son moteur de recherche phare, Bing. La version mise à jour de Bing a eu des résultats mitigés pour les premiers utilisateurs.

Smith a ajouté dans l'interview de lundi qu'en raison des risques potentiels liés à l'utilisation de l'IA, Microsoft avait plaidé pour que les entreprises « fassent ce qu'il faut » et pour de nouvelles lois et réglementations qui garantiraient le respect des protocoles de sécurité.

« Nous avons constaté la nécessité de cela ailleurs », a-t-il déclaré. « Imaginez simplement que l’électricité dépend de disjoncteurs. Vous mettez vos enfants dans un autobus scolaire en sachant qu'il y a un frein d'urgence. Nous l'avons déjà fait pour d'autres technologies. Nous devons désormais le faire également pour l’IA. »

Alors que des milliards sont investis dans le développement d’une technologie d’IA de pointe, nombreux sont ceux qui spéculent sur la façon dont elle perturbera notre vie quotidienne – ce qui conduit à des prédictions de machines mortelles, à des appels à une plus grande gouvernance de l’IA et à des prévisions selon lesquelles le monde va bientôt disparaître. voyez l’aube d’une nouvelle ère de l’IA.

Les experts semblent cependant divisés sur la question de savoir si l’IA apportera une renaissance ou une catastrophe à l’humanité.

Lors du sommet des PDG de Yale, sur invitation seulement, qui s'est tenu au début de l'été, près de la moitié des dirigeants interrogés lors de l'événement ont déclaré qu'ils pensaient que l'IA avait le potentiel de détruire l'humanité dans les cinq à dix prochaines années.

En mars dernier, 1 100 éminents technologues et chercheurs en IA, dont Steve Wozniak, cofondateur d’Elon Musk et d’Apple, ont signé une lettre ouverte appelant à une pause de six mois dans le développement de systèmes d’IA puissants. Ils ont souligné la possibilité que ces systèmes soient déjà sur la voie d’une superintelligence qui pourrait menacer la civilisation humaine.

Musk, co-fondateur de Tesla et SpaceX, a déclaré séparément que la technologie frapperait les gens « comme un astéroïde » et a averti qu’il y avait une chance qu’elle « devienne Terminator ». Il a depuis lancé sa propre société d’IA, xAI, dans le but, selon lui, de « comprendre l’univers » et d’empêcher l’extinction de l’humanité.

Cependant, tout le monde n’est pas d’accord avec l’opinion de Musk selon laquelle des machines superintelligentes pourraient anéantir l’humanité.

Le mois dernier, plus de 1 300 experts se sont réunis pour apaiser l’inquiétude suscitée par l’IA, créant une horde de « seigneurs robots maléfiques », tandis que l’un des trois soi-disant parrains de l’IA a qualifié les inquiétudes concernant la technologie devenant une menace existentielle de « absurdement ridicules ».

Nick Clegg, cadre supérieur de Meta, a également tenté d'apaiser les inquiétudes concernant la technologie dans une récente interview, insistant sur le fait que les grands modèles de langage dans leur forme actuelle sont « assez stupides » et certainement pas encore assez intelligents pour sauver ou détruire la civilisation.

Cependant, ce n’est pas seulement la perspective de voir des machines maléfiques s’emparer du monde qui suscite des inquiétudes quant à l’essor de l’IA.