Intelligence artificielle: Musk et plusieurs experts appellent à mettre en pause les recherches

Le patron de Tesla et Twitter, Elon Musk, et un groupe d’experts en technologie ont appelé à une pause de six mois dans le développement de systèmes d’intelligence artificielle (IA) avancés, arguant des « risques pour la société » de l’actuelle croissance rapide.

Dans une pétition, les signataires affirment que les systèmes d’IA dotés d’une intelligence compétitive humaine peuvent mettre « la société et l’humanité » en danger, soulignant le besoin d’une planification avec suffisamment de ressources.

« Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable”, ont-ils déclaré.

Lire aussi : Musk affirme que Twitter vaut maintenant 20 milliards de dollars, moins de la moitié de ce qu’il a payé

Les signataires ont affirmé que les systèmes d’IA modernes sont entrés en compétition avec les humains dans les tâches générales, ce qui soulève la question de savoir si l’IA pourrait être capable « d’inonder nos canaux d’information de propagande et de contrevérités » et rendre tous les travaux automatisés au lieu d’être effectués manuellement et si la société devrait risquer de « perdre le contrôle de notre civilisation ».

La pétition indique que de puissants systèmes d’IA ne devraient être créés que lorsque la société peut être sûre qu’ils produiront des effets positifs et des risques gérables.

Le groupe d’experts a souligné que tous les laboratoires d’IA devraient suspendre les systèmes de formation plus puissants que GPT-4, une version mise à jour de ChatGPT de la société OpenAI, pendant au moins six mois. La pétition indique que tous les laboratoires et experts indépendants devraient profiter de la pause pour développer et mettre en œuvre conjointement des protocoles de sécurité que des experts indépendants auditent et supervisent.

Le groupe a également appelé les développeurs d’IA à coopérer avec les décideurs politiques pour accélérer l’élaboration de réglementations régissant la technologie, qui, selon eux, devraient inclure des mesures telles que de nouvelles autorités de réglementation chargées de superviser l’IA, la surveillance et le suivi des systèmes d’IA, la responsabilité pour les dommages causés par l’IA et des « institutions dotées de ressources suffisantes » pour faire face aux perturbations économiques et politiques. Le groupe d’experts a affirmé que l’humanité avait déjà interrompu le développement d’autres technologies ayant des effets potentiellement « catastrophiques » sur la société, comme le clonage humain, la recherche sur la modification de la lignée germinale et l’eugénisme, et qu’elle devrait le faire à nouveau avec l’IA.

Avec MAP

Articles similaires

Laisser un commentaire

Bouton retour en haut de la page