Le Lien MULTIMÉDIA comprend:

  • 50 numéros du bulletin-HTML
  • Mot de passe pour www.lienmultimedia.com
  • Quotidien par courriel
  • 12 numéros du magazine CONVERGENCE
  • 1 Guide de l’industrie::NUMÉRIQUE
  • 1 Guide de l’industrie::WEB
  • 1 Guide de l’industrie::MOBILE
  • 1 Guide de l’industrie::JEUX VIDÉO
  • 1 Guide de survie::START-UP

CONNEXION

  • Abonnement
  • Publicité
  • Contact
  • Guide industrie
  • Vidéos
  • Podcasts
  • magazine CONVERGENCE
  • Boutique
  • Numérique
  • Jeux Vidéo
  • Mobile
  • Animation
  • Informatique
  • Arts Médiatiques
  • Marketing
  • Musique
  • Industrie
  • Réalité virtuelle
  • Intelligence artificielle
  • Startups
  • Artisans du numérique
  • Conseils d’experts
  • Exclusifs
  • SUIVEZ-NOUS

    RSS

    RECEVEZ GRATUITEMENT
    LE BULLETIN QUOTIDIEN [voir un exemple]

    Une lettre ouverte demande de suspendre les grandes expériences en matière d’IA Yoshua Bengio. Photo: Amélie Philibert

    Une lettre ouverte demande de suspendre les grandes expériences en matière d’IA

    29 mars 2023, 07h55
         |     

    Dans une lettre ouverte, plusieurs acteurs du milieu de l’intelligence artificielle (IA) demandent une pause des grandes expériences utilisant l’IA. Parmi les signataires, on retrouve Yoshua Bengio professeur titulaire à l’Université de Montréal, fondateur de Mila et Valérie Pisano, présidente et chef de la direction de Mila, aux côtés de Elon Musk, patron de SpaceX, Tesla et Twitter, Steve Wozniak, cofondateur de Apple, et Yuval Noah Harari, l’auteur de « Sapiens ».

    Les systèmes d’IA dotés d’une intelligence compétitive avec celle de l’homme peuvent présenter des risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies et comme le reconnaissent les principaux laboratoires d’IA, peut-on lire dans cette lettre. Comme l’indiquent les principes d’IA d’Asilomar, largement approuvés, l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec l’attention et les ressources nécessaires. Malheureusement, ce niveau de planification et de gestion n’existe pas, même si les derniers mois ont vu les laboratoires d’IA s’engager dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable.

    Les systèmes d’IA contemporains deviennent aujourd’hui compétitifs sur le plan humain pour des tâches générales, et nous devons nous interroger : Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d’IA puissants ne doivent être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l’ampleur des effets potentiels d’un système. La récente déclaration de OpenAI concernant l’intelligence artificielle générale indique qu’« à un moment donné, il pourrait être important d’obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles ». Nous sommes d’accord. Ce moment est arrivé.

    Par conséquent, nous demandons à tous les laboratoires d’IA d’interrompre immédiatement, pendant au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire.

    Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en oeuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l’IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable, ce qui ne signifie pas une pause dans le développement de l’IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes.

    La recherche et le développement dans le domaine de l’IA devraient être recentrés sur l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et modernes d’aujourd’hui.
    Parallèlement, les développeurs d’IA doivent collaborer avec les décideurs politiques pour accélérer considérablement le développement de systèmes robustes de gouvernance de l’IA. Ceux-ci devraient au minimum comprendre : des autorités réglementaires nouvelles et compétentes dédiées à l’IA ; la surveillance et le suivi des systèmes d’IA hautement performants et des grands pools de capacité de calcul ; des systèmes de provenance et de filigrane pour aider à distinguer le réel du synthétique et pour suivre les fuites de modèles ; un écosystème robuste d’audit et de certification ; la responsabilité pour les dommages causés par l’IA ; un financement public robuste pour la recherche technique sur la sécurité de l’IA ; et des institutions dotées de ressources suffisantes pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera.

    L’humanité peut jouir d’un avenir florissant grâce à l’IA. Ayant réussi à créer de puissants systèmes d’IA, nous pouvons maintenant profiter d’un « été de l’IA » au cours duquel nous récolterons les fruits de nos efforts, nous concevrons ces systèmes pour le plus grand bénéfice de tous et nous donnerons à la société une chance de s’adapter. La société a mis en pause d’autres technologies aux effets potentiellement catastrophiques, et nous pouvons faire de même ici. Profitons d’un long été de l’IA et ne nous précipitons pas sans préparation vers l’automne.

    Au moment de mettre en ligne, 1123 personnes du monde de l’intelligence artificielle avaient signé cette lettre.

    Sur le même sujet

    Intéressé.e à reproduire un article, une photo ou une vidéo ?

    En bénéficiant de notre licence de reproduction, vous pourrez :

    • publier un article dans vos sites Web, dans vos infolettres, dans vos réseaux sociaux, etc.
    • en modifier la longueur
    • recevoir les photos (et vidéos, si applicable) en haute résolution
    • publier les photos (et vidéos, si applicable) dans vos sites Web, dans vos infolettres, dans vos réseaux sociaux, etc.
    • le contenu devient public sur notre plateforme, ce qui vous octroie encore plus de visibilité

    Sous réserve que les droits sur les contenus que vous souhaitez reproduire (textes, photos ou vidéos) nous appartiennent.

    DERNIERS ARTICLES

    La SARTEC lance une campagne pour son 75e anniversaire

    La SARTEC lance une campagne pour son 75e anniversaire

    Suite
    23 avril 2024, 08h08
    Natyf TV enfin disponible partout au Québec

    Natyf TV enfin disponible partout au Québec

    Suite
    23 avril 2024, 08h07
    Étienne Boulay devient partenaire de The Fashion Hero

    Étienne Boulay devient partenaire de The Fashion Hero

    Suite
    23 avril 2024, 00h30