Le Lien MULTIMÉDIA comprend:

  • 50 numéros du bulletin-HTML
  • Mot de passe pour www.lienmultimedia.com
  • Quotidien par courriel
  • 12 numéros du magazine CONVERGENCE
  • 1 Guide de l’industrie::NUMÉRIQUE
  • 1 Guide de l’industrie::WEB
  • 1 Guide de l’industrie::MOBILE
  • 1 Guide de l’industrie::JEUX VIDÉO
  • 1 Guide de survie::START-UP

CONNEXION

  • Abonnement
  • Publicité
  • Contact
  • Guide industrie
  • Vidéos
  • Podcasts
  • magazine CONVERGENCE
  • Boutique
  • Numérique
  • Jeux Vidéo
  • Mobile
  • Animation
  • Informatique
  • Arts Médiatiques
  • Marketing
  • Musique
  • Industrie
  • Réalité virtuelle
  • Intelligence artificielle
  • Startups
  • Artisans du numérique
  • Conseils d’experts
  • Exclusifs
  • SUIVEZ-NOUS

    RSS

    RECEVEZ GRATUITEMENT
    LE BULLETIN QUOTIDIEN [voir un exemple]

    Carl Mörch s’intéresse à l’éthique en intelligence artificielle Carl Mörch. Photo: Sophie Bernard

    Carl Mörch s’intéresse à l’éthique en intelligence artificielle

    27 juin 2019, 07h25
         |      Article rédigé par Sophie Bernard     

    Psychologue français, Carl Mörch est actuellement doctorant en recherche à l’UQÀM et à au centre de recherche interdisciplinaire CRISE qui vise à diminuer le suicide et les comportements suicidaires et à réduire les conséquences négatives du suicide. Il a créé, avec Abhishek Gupta fondateur de l’Institut éthique de Montréal IA, canadaprotocol.com, un projet en libre accès pour les développeurs, les décideurs, les professionnels, les chercheurs et tous ceux qui envisagent d’utiliser l’intelligence artificielle et les mégadonnées. Lors de la journée consacrée à la santé pendant les cinq journées de MTL Connecte, un événement organisé dans le cadre du Printemps numérique, il a présenté son projet.

    « Notre but est de contribuer à une meilleure identification et la prévention des enjeux éthiques en intelligence artificielle, a-t-il expliqué. Notre projet vise à créer des outils valides utilisant la littérature scientifique. » Outre lui et Abhishek Gupta, l’équipe de canadaprotocol.com compte aussi Camille Vézy, une étudiante au doctorat en communication à l’Université de Montréal qui s’intéresse à la manière dont l’éthique se matérialise dans les pratiques de conception et de gestion des systèmes d’intelligence artificielle, ainsi que des collaborateurs comme Brian Mishara, fondateur et directeur du CRISE et professeur
    à l’UQÀM.

    Dans le contexte actuel, on se trouve dans la phase d’adoption enthousiaste de l’intelligence artificielle. Mais il existe des risques et des enjeux éthiques, estiment-ils. Ainsi, les chercheurs travaillent actuellement sur deux projets. Le premier, une enquête mondiale sur l’éthique et l’IA disponible sous peu, sera le principal outil mis à disposition et couvrira un large éventail de problèmes éthiques, de dilemmes et de défis. Le second, une liste de contrôle sur la santé mentale et la prévention du suicide, met l’accent sur les défis spécifiques de l’utilisation de l’IA dans le contexte de la santé mentale et de la prévention du suicide. Il a été validé en 2018 par 16 experts et professionnels lors d’une consultation en deux temps avec la méthode de Delphes. Cette enquête posera des questions et offrira ensuite un résumé personnalisé des recommandations pratiques issues de la littérature et des experts du monde entier. « Avec les rapports gouvernementaux et les lois, on ne peut pas trop avancer tant que la compétitivité se trouve en danger, explique-t-il. Si on prend par exemple les drones, si on se prive d’outils, est-ce que cela peut nuire ? »

    Ceux qui développent les outils technologiques de l’IA vivent une surcharge morale : ils doivent créer ces outils, mais les conséquences éthiques reposent sur eux. Or, ces développeurs ne sont pas formés en éthique. Et, justement, en matière d’initiatives éthiques, qui sont les acteurs en place ? L’Institute for the Future a déjà, de son côté, mis en place son Ethical OS Toolkit. « Notre initiative est un peu un mouton à cinq pattes, souligne Carl Mörch. Notre premier outil, qui vise la santé mentale, a été validé par 16 expert. Quand on parle d’éthique, on a un devoir de clarté. Il existe une bulle aujourd’hui et certains disent faire de l’IA qui n’en est pas. On voit un fossé entre la technologie et le développement. »

    La prochaine étape, l’enquête mondiale, permettra de créer un site qui posera des questions, du genre : « Est-ce que vous avez un spécialiste en éthique dans votre équipe ? » Et si la réponse est non, des ressources seront proposées, afin de limiter le fossé. Le questionnaire amènera à des actions concrètes.

    Sur le même sujet

    Intéressé.e à reproduire un article, une photo ou une vidéo ?

    En bénéficiant de notre licence de reproduction, vous pourrez :

    • publier un article dans vos sites Web, dans vos infolettres, dans vos réseaux sociaux, etc.
    • en modifier la longueur
    • recevoir les photos (et vidéos, si applicable) en haute résolution
    • publier les photos (et vidéos, si applicable) dans vos sites Web, dans vos infolettres, dans vos réseaux sociaux, etc.
    • le contenu devient public sur notre plateforme, ce qui vous octroie encore plus de visibilité

    Sous réserve que les droits sur les contenus que vous souhaitez reproduire (textes, photos ou vidéos) nous appartiennent.

    DERNIERS ARTICLES

    MUTEK et la SAT annoncent une alliance stratégique

    MUTEK et la SAT annoncent une alliance stratégique

    Suite
    28 mars 2024, 03h00
    « Dans les médias » décerne ses prix

    « Dans les médias » décerne ses prix

    Suite
    28 mars 2024, 01h00
    L’ONF participe à Hot Docs avec 7 documentaires

    L’ONF participe à Hot Docs avec 7 documentaires

    Suite
    28 mars 2024, 01h00