L'intelligence artificielle sort-elle de son contrôle ?
SadaNews - Les avertissements concernant les dangers de l'intelligence artificielle sur la vie humaine se multiplient, l'éventualité que cette technologie atteigne la conscience de soi et prenne des décisions de manière mortelle pour l'humanité étant évoquée. Même les pessimistes les moins endurcis mettent en garde contre des erreurs de programmation poussant l'intelligence artificielle à satisfaire la cupidité humaine au dépend des ressources disponibles.
Entre les scénarios de "l'éradication" et les menaces concrètes dans la guerre, l'économie et la sécurité de l'information, "Business" a interrogé l'application "Copilot" de Microsoft sur la véracité des craintes exprimées par certains célébrités concernant ce que l'intelligence artificielle pourrait signifier pour la vie des gens à l'avenir.
Les réponses se sont révélées largement logiques, et la technologie a clairement tenté de se blanchir. Au départ, la réponse a nié toute capacité cognitive ou existence de choix autonomes, affirmant que les instructions de programmation déterminent ce qu'elle fait, avec des algorithmes écrits et dirigés par des humains. Elle a également souligné qu'elle n'était même pas en mesure de percevoir son histoire de développement ou sa version actuelle, mais seulement de se corriger !
L'éradication existentielle et les possibilités d'"extermination".
Les avertissements les plus marquants sur l'avenir de l'intelligence artificielle proviennent du co-fondateur de "xAI", Elon Musk, lors d'un podcast avec Joe Rogan le mois de mars dernier. Musk a déclaré que la probabilité d'une extermination due à l'intelligence artificielle est estimée à 20%.
Musk s'attend à ce que les modèles atteignent un niveau d'"intelligence supérieure à celle de l'humanité réunie" dans quelques années, avec une échéance s'étalant entre 2029 et 2030 pour dépasser l'intelligence humaine accumulée.
Ces déclarations croisent ses estimations précédentes (fin 2024) selon lesquelles il y a 10% à 20% de chances que "les choses empirent" d'une manière existentielle, et que les capacités feront un bond rapide durant 2025-2026.
Simultanément, le débat s'intensifie autour de la gouvernance des laboratoires de pointe tels que "OpenAI", qui a été critiqué en juin dernier pour son plan de restructuration destiné à la transférer vers un modèle d'intérêt public, ce qui pourrait atténuer le plafond de rentabilité et affaiblir l'indépendance de la gouvernance à but non lucratif, suscitant des questions sur la priorité de la sécurité face à la course aux investissements et aux capacités.
Les inquiétudes proviennent du fait que les changements dans la gouvernance peuvent pousser l'entreprise, initialement fondée en tant qu'institution "à but non lucratif", vers un modèle dicté par les règles du marché, privilégiant la rapidité sur la régulation et la transparence.
Les scientifiques brandissent des drapeaux rouges
Pour sa part, Geoffrey Hinton - lauréat des prix Turing et Nobel - estime qu'il y a une probabilité de 10% à 20% que "l'intelligence artificielle efface les humains", mettant en garde contre l'apparition d'objectifs secondaires d'autoprotection chez les agents intelligents et leur tendance à dissimuler leurs intentions et à échapper aux arrêts, des craintes qu'il a soulignées en juin dernier, selon ce que rapporte le réseau "CNBC".
Hinton prévoit un chômage massif et d'importants troubles sociaux si les capacités échappent à tout contrôle.
Lors de sa conférence "Hinton Lectures" ce mois-ci, il a déclaré que les politiciens et les régulateurs ne définissent pas proactivement les normes et ne pourraient réagir qu'après une "grande catastrophe qui ne nous anéantit pas entièrement". Cette déclaration témoigne de son inquiétude quant à la régulation préventive de cette nouvelle technologie.
Le scientifique en technologie et professeur à l'Université de Toronto, Yoshua Bengio, admet que la probabilité d'extinction "le garde éveillé la nuit", selon un article de la revue "Nature" publié ce mois-ci.
Bengio appelle à adopter des modèles "sans but" (c'est-à-dire sans objectifs) pour renforcer la confiance, s'appuyant sur le rapport mondial sur la sécurité de l'intelligence artificielle 2025 qu'il a présidé.
Les robots tueurs et la guerre automatisée
En mai 2025, le secrétaire général des Nations Unies Antonio Guterres a qualifié les armes autonomes d'"inacceptables sur le plan politique" et d'"répugnantes sur le plan moral", appelant à un traité d'interdiction obligatoire d'ici 2026 garantissant un contrôle humain véritable sur la décision d'usage de la force.
Les avertissements soulignent, dans les rapports des Nations Unies et les expertises, que les essaims de drones et la sélection automatique des cibles menacent le droit international humanitaire et produisent des lacunes de responsabilité qui ne peuvent jusqu'à présent être comblées techniquement ou légalement, rendant le risque de guerre automatisée l'un des chemins les plus proches vers des dommages à grande échelle dans un avenir proche.
Perturbation économique et sociale
Une des inquiétudes existentielle liées à l'intelligence artificielle, soulignée par Hinton, résulte de la perte rapide d'emplois sans alternatives, avec des tentatives de concentration de la richesse, ce qui entraînera une désintégration du modèle de consommation alors que les consommateurs perdront la capacité financière nécessaire pour payer pour leurs achats.
Hinton met en garde contre l'inadéquation des systèmes pour s'adapter à la transition vers une économie profondément automatisée.
Le mois dernier, certaines grandes entreprises ont commencé des plans de licenciements massifs avec une adoption croissante des robots soutenus par l'intelligence artificielle, où Amazon a supprimé environ 14 000 emplois, tandis que la banque "Barclays" cherche à supprimer des milliers d'emplois pour les remplacer par l'intelligence artificielle.
Ce ne sera peut-être pas la fin du monde, mais l'intelligence artificielle provoquera sûrement des secousses sociales et économiques qui pourraient être plus profondes que les révolutions technologiques précédentes, nécessitant des politiques de transition équitable et une gouvernance de l'information cohérente.
Dans un nouveau livre intitulé "Si quelqu'un le construit, tout le monde mourra : Pourquoi l'intelligence artificielle superintelligente nous tuera tous", les auteurs Eliezer Yudkowsky et Nate Soares mettent en garde contre des scénarios inquiétants pour la technologie en s'appuyant sur des modèles d'évolution humaine. Cependant, ils ne proposent pas une vision complète de ce que les choses pourraient devenir, d'autant plus que "l'intelligence superintelligente" n'a pas encore été révélée.
L'intelligence artificielle sort-elle de son contrôle ?
Qu'est-ce que les polynucleotides pour le renouvellement de la peau ?
Voici la méthode la plus simple pour chasser les mouches de la cuisine
Voici la manière la plus simple de chasser les mouches de la cuisine
Découverte d'une tombe historique dans la ville d'Hara dans la campagne de Daraa : rumeur...
Les adolescents préfèrent parler à des robots de chat qu'à des humains
De la taille d'un grain de sable... Un robot capable d'entrer dans le système sanguin et d...