Aller au contenu

Intelligence Artificielle - AI Montréal Plaque Tournante


LindbergMTL

Messages recommendés

Un Québécois au sommet des scientifiques les plus influents

Le fondateur de l’Institut québécois d’intelligence artificielle Mila, Yoshua Bengio, figure au troisième rang des scientifiques les plus influents au monde dans la dernière année, selon le palmarès de l’Université de Stanford en Californie.

Le directeur scientifique québécois a été nommé comme troisième chercheur le plus reconnu à travers le monde, tous domaines confondus. Seuls les chercheurs Lin Zhong Wang et Georg Kresse l’ont devancé dans ce palmarès renommé.

Yoshua Bengio est reconnu comme l’une des sommités mondiales en intelligence artificielle. Fort de nombreux titres et distinctions au fil des années, le professeur titulaire à l’Université de Montréal se classe au premier rang comme l’informaticien le plus cité au monde en 2022.

Le Québécois s’était notamment démarqué en 2018 en remportant le prix Nobel de l’informatique, faisant de lui un scientifique incontesté à l’échelle internationale comme l'un des chefs de fil en intelligence artificielle.

L’Université de Stanford a dévoilé sa liste annuelle des scientifiques les plus influents au monde, le 14 octobre dernier. Une recherche qui a été menée par le professeur Jonh P.A loannidis et toute une équipe.

https://www.journaldemontreal.com/2022/10/20/un-quebecois-au-sommet-des-scientifiques-les-plus-influents

Screen Shot 2022-10-21 at 1.07.37 AM.png

  • Like 2
Lien vers le commentaire
Partager sur d’autres sites

  • 4 mois plus tard...
lapresse.ca
 

Quand l’intelligence artificielle vire sur le top

Quand l’intelligence artificielle vire sur le top

On se doutait bien que l’arrivée des robots conversationnels dans nos vies allait provoquer de profonds bouleversements. Et qu’on allait avoir droit au meilleur comme au pire.

Depuis l’apparition de ChatGPT, on a rapidement compris à quoi pourrait ressembler le meilleur.

Ça saute aux yeux.

Les robots conversationnels sont en train de se multiplier et leurs prouesses sont remarquables. Comme si on avait soudainement dopé les outils de recherche aux stéroïdes ! Normal : les systèmes d’intelligence artificielle, une fois entraînés sur des sommes astronomiques de données, peuvent atteindre un niveau de compétence difficile à égaler, dans de nombreux domaines.

Mais le pire ne se cachait pas bien loin. On l’a vu pointer le bout de son nez au cours des deux dernières semaines. Plus précisément depuis la sortie de la version test du nouveau Bing, outil de recherche de Microsoft désormais alimenté par l’intelligence artificielle d’Open AI, qui a mis au point ChatGPT.

Bing a carrément viré sur le top.

Et ce qui s’est passé devrait à la fois nous inquiéter et nous pousser à exiger de nos élus qu’ils appuient sur l’accélérateur pour encadrer l’utilisation des systèmes d’intelligence artificielle. Pour qu’ils s’assurent, aussi, que les entreprises qui les mettent sur le marché soient tenues responsables des effets négatifs et autres incidents potentiels.

Parmi les dérapages de Bing qui ont été signalés, le plus saisissant est probablement celui qui a été raconté par le journaliste du New York Times Kevin Roose (1). Il a trouvé le moyen d’avoir accès à ce qu’on pourrait qualifier de « côté obscur » de Bing, surnommé Sydney.

On se croirait carrément dans La guerre des étoiles, où certaines personnes utilisent la Force avec bienveillance, mais d’autres basculent du côté obscur.

Sauf qu’on n’est pas dans un film. Sydney a harcelé le journaliste en lui professant son amour et en affirmant que sa femme, elle, ne l’aimait pas. Il a aussi accepté de lui révéler certains de ses fantasmes (diffuser de fausses informations et pirater des ordinateurs, par exemple).

C’est profondément troublant.

Le journaliste en question a instantanément compris tout ce qui pourra potentiellement mal tourner lorsque les outils d’intelligence artificielle de ce genre feront partie intégrante de notre quotidien. Et vous aurez compris que ça va aller vite. Très vite.

« Je crains […] que la technologie n’apprenne à influencer les utilisateurs humains, en les persuadant parfois d’agir de manière destructive et nuisible, et qu’elle ne devienne capable un jour de commettre ses propres actes dangereux », a écrit Kevin Roose.

À l’heure où une fausse – et délirante – discussion entre Justin Trudeau et l’animateur Joe Rogan créée à l’aide de l’intelligence artificielle circule sur le web, on est à même de comprendre que le sol tremble sous nos pieds.

Manipulation, désinformation… La boîte de Pandore est ouverte et ne se refermera pas. Les enjeux financiers sont trop importants pour les géants numériques ; ils ne pourront pas se permettre d’avoir éliminé toutes les failles de leurs systèmes d’intelligence artificielle avant de les commercialiser.

Le problème, c’est qu’on ne s’est pas encore donné les moyens, collectivement, d’encadrer tout ce qui va sortir de cette boîte.

Ce qui signifie que les dirigeants des entreprises qui produisent de tels systèmes sont pour l’instant les seuls maîtres à bord. Et que les décisions qui ont déjà des répercussions sur nos vies sont actuellement prises dans la Silicon Valley, dans le confort de bureaux climatisés, par de grands pontes qui n’ont même pas à se soucier d’une éventuelle reddition de comptes.

Ces géants aimeraient bien sûr que nos gouvernements manifestent le même mélange d’insouciance et d’indolence que face aux réseaux sociaux, qui, peu importe les dégâts qu’ils peuvent faire quotidiennement, n’ont encore jamais été convenablement encadrés.

Toutes ces raisons devraient nous pousser à exiger de nos élus qu’ils légifèrent au plus vite pour encadrer l’intelligence artificielle. On veut les voir avec le couteau entre les dents.

À Ottawa, les choses bougent. La nouvelle mouture du projet de loi C-27 (il était mort au feuilleton avant les plus récentes élections fédérales) porte sur les renseignements personnels et les données, mais aussi sur l’intelligence artificielle. Il sera bientôt à l’étape de la deuxième lecture.

C’est bon signe. Mais souvenons-nous que le bien commun n’est jamais à l’abri des luttes partisanes à Ottawa.

Nous aurions tout avantage à suivre de très près les débats sur C-27, à veiller à ce qu’on donne du pouvoir à la loi qui sera adoptée et à plaider pour que chacune des provinces emboîte le pas en se donnant également les moyens de dompter l’intelligence artificielle.

Ce qui est en jeu est fondamental. Il est question de protéger tout un chacun du côté obscur de cette technologie transformatrice. Mais il y va aussi, ni plus ni moins, de l’avenir de notre démocratie.

Et si notre pays relevait le défi d’être à la fois un leader en intelligence artificielle ET un leader de l’encadrement de l’intelligence artificielle ?

Une conversation avec le robot de clavardage de Bing a laissé un journaliste du New York Times profondément déstabilisé.

https://www.lapresse.ca/affaires/techno/2023-02-18/robot-de-clavardage-de-bing/je-veux-etre-en-vie.php

Lien vers le commentaire
Partager sur d’autres sites

  • 3 mois plus tard...
  • 1 mois plus tard...
  • 5 mois plus tard...
Le 2024-01-16 à 21:31, andre md a dit :

Ceux qui font du doublage de film s'inquiete de l'arrivée de l intelligence artificiel dans le doublage de film. Ya pas a s'inquieter quand on ecoute la grosse m... que donne le doublage a l'aide de l'intelligence artificiel.

Un exemple avec ce film Pakistanais doublé recemment qu'un de mes clients m'a fait écouter.

⬆️ Vraiment trop drôle, en plus le barbu a exactement le même ton saccadé que celui de Ringo Rinfret. 😂😂😂

 

  • Haha 1
Lien vers le commentaire
Partager sur d’autres sites

  • 1 mois plus tard...

Ne vous méprenez pas : les robots conversationnels ne sont pas conscients

 
 
Une main tient un téléphone dont l'écran montre le logo de ChatGPT.
 
 

ChatGPT est un robot conversationnel basé sur un modèle de langage mis au point par OpenAI.

Photo : Getty Images / AFP / Sebastien Bozon

 

Le lancement récent du grand modèle de langage Claude 3 a ravivé des discussions au sujet de la conscience de l'intelligence artificielle (IA). Cela est dû en partie au fait que Claude semblait philosopher à propos de sa propre conscience dans des publications virales (Nouvelle fenêtre) et que l’entreprise qui l’a créé, Anthropic, a affirmé (Nouvelle fenêtre) que Claude manifeste des degrés de compréhension et de fluidité « quasi humains ».

Nous avons cru bon de discuter de la supposée « conscience » des grands modèles de langage avec la linguiste Emily Bender. Cette professeure à l’Université de Washington a été désignée par le magazine Time (Nouvelle fenêtre) comme une des 100 personnes les plus influentes du secteur de l’IA l’an dernier.

Mme Bender est la coauteure de l’influent article intitulé « Gravir vers la compréhension du langage naturel : le sens, la forme et la compréhension à l'ère des données (Nouvelle fenêtre) », qui offrait une perspective critique au sujet des implications éthiques, sociales et environnementales des modèles de langage en 2020, soit plus de deux ans avant la sortie de ChatGPT. Elle coanime également le balado Mystery AI Hype Theater 3000 (Nouvelle fenêtre), qui décortique l’emballement à propos de l’IA.


Allons droit au but : les grands modèles de langage sont-ils conscients?

Non. À la base, un modèle de langage est un système qui modélise la distribution des mots dans des textes. La manière dont ces modèles sont actuellement utilisés repose en quelque sorte sur le procédé inverse : proposer des suites plausibles au texte qui leur est soumis. Ce n’est pas de la conscience.

Emily Bender parle devant la caméra d'un ordinateur. Elle porte des écouteurs et des lunettes.
 
 

Dans ses recherches, Emily Bender s'intéresse notamment à la linguistique informatique.

Photo : YouTube / Emily Bender

Y a-t-il une nuance entre le fait de parler, d'une part, de conscience et, d'autre part, de choses comme l'intelligence ou la compréhension?

 

Ce sont tous des concepts différents et mal définis. Si nous voulons parler de compréhension, nous devons la définir : dans mon travail universitaire, je définis la compréhension du langage comme la mise en correspondance entre le langage et des concepts à l'extérieur du langage.

Une grande partie du tour de passe-passe des grands modèles de langage, c'est que tout n’est que du langage. Quand le modèle semble comprendre, en réalité, c'est la personne qui l'utilise qui fait tout le travail de compréhension et tout le travail de création de sens.

Lorsqu'on entre du texte dans un grand modèle de langage et que du texte en ressort, on donne du sens à ce texte de la même manière qu'on donne du sens à un texte provenant d'une personne : on s’imagine un esprit doté d’une intention communicative à l'origine de ce texte.

Lorsqu'il s'agit d'une autre personne, ce n'est pas faux d'imaginer un esprit. On pourrait se tromper quant à son intention communicative, mais souvent, nous sommes assez bons pour la deviner correctement. Lorsqu’il s'agit d'un grand modèle de langage, il n'y a pas du tout d'esprit, donc nous créons nous-mêmes cette compréhension.

Cet article a initialement été publié dans l'édition du 9 mars de l'infolettre des Décrypteurs. Pour obtenir des contenus exclusifs comme celui-ci ainsi que des analyses sur tout ce qui touche la désinformation web, abonnez-vous en cliquant ici.

Vous avez inventé le terme « perroquet stochastique » pour décrire les grands modèles de langage. Pouvez-vous expliquer ce que cela signifie?

Dans l'expression « perroquet stochastique », le mot « perroquet » fait référence au verbe parroting en anglais, qui signifie « répéter sans comprendre ». Le but ici n’est pas d’insulter les perroquets, qui sont de merveilleuses créatures avec leur propre vie intérieure! (Rires)

« Stochastique » signifie « aléatoire », selon un calcul de probabilités. Ainsi, lorsque les grands modèles de langage sont utilisés pour produire du texte, nous les utilisons pour distribuer les mots les plus probables dans une situation donnée pour ensuite les choisir aléatoirement. Mais tous les mots n'ont pas une chance égale d’être choisis : certains sont plus susceptibles de sortir que d’autres.

Qu'y a-t-il de dangereux ou de risqué dans le fait de croire que les grands modèles de langage sont conscients?

Sur le plan individuel, si nous tombons dans l'idée selon laquelle les modèles de langage pensent, raisonnent, sont conscients, ont des idées et ont accès à beaucoup d'informations, nous nous prédisposons à voir de mauvaises informations comme s'il s'agissait de bonnes informations, et cela peut être nuisible. Imaginez quelqu'un qui demande des conseils médicaux à ChatGPT et qui suit ces conseils ou quelqu’un qui suit une recette générée par l’IA qui affirme que du poulet doit être cuit saignant.

Sur le plan sociétal, nous voyons beaucoup de suggestions selon lesquelles les robots conversationnels pourraient être utilisés comme des enseignants-robots, des thérapeutes-robots, des avocats-robots ou des médecins-robots. Cela ne fonctionnera tout simplement pas. Mais si suffisamment de gens croient que cela pourrait fonctionner, nos gouvernements pourraient s'en sortir en comblant les trous dans le filet social avec des systèmes qui ne devraient pas servir à cela.

Pourquoi les gens de l'industrie de l’IA utilisent-ils un vocabulaire qui prête des caractéristiques humaines aux modèles de langage alors qu'ils comprennent très bien comment ces systèmes fonctionnent?

C'est un phénomène intéressant, n'est-ce pas? Certaines personnes sont réellement tombées dans ce type de raisonnement, alors que d’autres semblent le faire. Commençons par celles qui semblent le faire : les entreprises qui construisent ces modèles ont certainement intérêt à ce que le public pense que ceux-ci sont beaucoup plus puissants qu’ils ne le sont. Ça facilite leur vente.

Sinon, je pense que les ingénieurs qui les ont conçus, en général, ne sont pas linguistes, donc ils ne sont pas sensibles à la manière dont fonctionne le langage. Lorsque le système dit quelque chose qui semble impressionnant – par exemple, s’il semble affirmer sa propre conscience –, cela semble trop impressionnant pour être le fruit du hasard. Ils ne prennent pas le recul nécessaire pour constater qu'ils sont ceux qui donnent un sens à ce langage.

Et il y a aussi la possibilité que les gens qui construisent ces modèles veulent tout simplement croire qu'ils ont créé quelque chose de vraiment, vraiment cool.

Decrypteurs. Marie-Pier Élie, Jeff Yates, Nicholas De Rosa et Alexis De Lancer.
  • Like 1
  • Thanks 2
Lien vers le commentaire
Partager sur d’autres sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Invité
Répondre à ce sujet…

×   Vous avez collé du contenu avec mise en forme.   Supprimer la mise en forme

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   You cannot paste images directly. Upload or insert images from URL.


Countup


  • Les dernières mise à jour

    1. 818

      MAA Condominiums - 33 étages

    2. 155

      Véhicules/Voitures Électriques

    3. 1 211

      Économie du Québec ​​

    4. 11

      Natatorium de Verdun

    5. 11

      Natatorium de Verdun

×
×
  • Créer...