Elon Musk ; alarmiste ou prudent ? Partie 1/2

Développement « inquiétants » d'IA et inégalités économiques. Et si la société n’était pas prête ?


Rédigé par Aya Azaddou le Jeudi 6 Avril 2023

Elon Musk et des centaines d'experts mondiaux ont signé, mercredi 29 mars 2023, une pétition qui appelle toutes les entreprises d’IA à cesser immédiatement de développer des systèmes d’IA plus puissants que le modèle GPT-4, créé par OpenAI, pendant au moins six mois. La pétition soulève des préoccupations quant aux dangers que l’IA peut poser pour la société et l’humanité en général, lorsqu’elle est associée à l’intelligence humaine concurrentielle.



Elon Musk, propriétaire de Twitter et fondateur et PDG de Tesla et SpaceX, est depuis longtemps un critique virulent de l'intelligence artificielle (IA) et de ses risques potentiels pour l'humanité. Récemment, Musk a pris une mesure audacieuse en signant une pétition pour suspendre les expériences géantes d'IA jusqu'à ce que leur sécurité et leurs implications sociétales aient été soigneusement évaluées.

La pétition, qui a été organisée par le Future of Life Institute, une organisation à but non lucratif dédiée à garantir que la technologie reste bénéfique pour l'humanité, a été signée par plus de 3 000 dirigeants de l’industrie technologique et chercheurs en intelligence artificielle et en robotique, ainsi que par d'autres personnalités de la science et de la technologie. L'objectif de la pétition est d'encourager les gouvernements et les entreprises à adopter une approche plus prudente et responsable de la recherche et du développement de l'IA, en appelant à un arrêt temporaire de tout développement futur de l’intelligence artificielle (IA). 

Les signataires – comprenant aussi le cofondateur d'Apple Steve Wozniak, des membres du laboratoire d'IA de Google DeepMind, le patron de Stability AI Emad Mostaque, concurrent d'OpenAI, ainsi que des experts en IA et universitaires américains, ingénieurs cadres de Microsoft, groupe allié de OpenAI - estiment que ces derniers mois, les laboratoires d'IA se sont enfermés dans une « course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable ». 
 

Elon Musk met en garde contre les dangers de l'IA depuis plusieurs années, la décrivant comme "la plus grande menace existentielle" à laquelle l'humanité est confrontée. Il a appelé à plusieurs reprises à une réglementation et une surveillance accrue du développement de l'IA, arguant que sans de telles mesures, la technologie pourrait potentiellement avoir des conséquences catastrophiques, telles que la perte d'emplois, des perturbations économiques généralisées et même l'émergence de "robots tueurs" autonomes qui pourrait menacer la vie humaine.
 
Alors que certains chercheurs en IA soutiennent que ces risques sont exagérés et que l'IA a le potentiel d'apporter de nombreux changements positifs, y compris des progrès dans les soins de santé, les transports et l'énergie, le PDG de Tesla et d'autres chercheurs en intelligence artificielle pensent qu'il faut faire preuve de prudence pour s'assurer que la technologie est développée dans une manière responsable et éthique.
 
La pétition demande un moratoire sur le développement de systèmes d'IA susceptibles de causer des dommages, tels que les armes autonomes, jusqu'à ce qu'un consensus sur l'utilisation et la réglementation appropriées de ces systèmes puisse être atteint. Il appelle également à une recherche accrue sur les impacts sociétaux et économiques de l'IA, ainsi qu'à l'élaboration de cadres pour garantir que l'IA est utilisée au profit de l'humanité.
 
« Je ne pense pas que la société est prête à faire face à cette puissance-là, au potentiel de manipulation par exemple des populations qui pourrait mettre en danger les démocraties », s'est exprimé le pionnier canadien de l'IA, Yoshua Bengio.


Rédigé par Oumaima Ait Baali , La Fondation Tamkine
#Tamkine_ensemble_nous_réussirons




Jeudi 6 Avril 2023
Dans la même rubrique :