Normand Hamel Posted May 24, 2021 Share Posted May 24, 2021 Secteur des technologies de l’information Québec investit 40 millions pour soutenir les étudiants Le ministre Jean Boulet a annoncé lundi un investissement de 39,6 millions de dollars sur trois ans pour soutenir la formation de 2500 étudiants dans le secteur des technologies de l’information. Alice Girard-Bossé - La Presse « Il y a à peu près 10 000 postes vacants en technologies de l’information et des communications qui doivent être comblés. C’est devenu un manque d’effectifs qui a des impacts sur la reprise économique », a soutenu Jean Boulet, ministre du Travail, de l’Emploi et de la Solidarité sociale et ministre responsable de la région de la Mauricie. Dans le but de pourvoir les postes vacants, le ministre a lancé le Programme pour la requalification et l’accompagnement en technologie de l’information et des communications (PRATIC). Les participants au programme pourraient bénéficier d’une aide financière de 650 $ par semaine pendant toute la durée de leur formation. Une bourse de 1950 $ leur sera également remise lorsqu’ils auront terminé leur formation avec succès. « [Le programme] concerne plus précisément les chômeurs pandémiques, les personnes qui sont sans emploi et qui ont besoin de réintégrer le marché du travail », a indiqué le ministre. Pour être admissibles, les étudiants devront être inscrits à des formations de courte durée et à temps complet. Seules les formations définies par le Ministère seront admissibles. La liste des formations admissibles sera rendue publique le 1er juillet 2021. Le programme vise notamment les formations en robotique, en automatisation industrielle, en intelligence artificielle, en conception de logiciels et en programmation de site web. « Les formations vont être extrêmement variées pour permettre de répondre à des besoins concrets du marché du travail », dit-il. Les formations devront être suivies à temps plein et être de courte durée, mener à l’obtention d’une attestation d’études collégiales, à des certificats ou à des microprogrammes universitaires ou être des formations sur mesure menant à un emploi. Les inscriptions au PRATIC commenceront le 1er juillet 2021, et les premières cohortes entameront leur formation dès la prochaine rentrée scolaire. https://www.lapresse.ca/actualites/education/2021-05-24/secteur-des-technologies-de-l-information/quebec-investit-40-millions-pour-soutenir-les-etudiants.php Link to comment Share on other sites More sharing options...
acpnc Posted July 20, 2021 Share Posted July 20, 2021 Services internet oxio obtient 25 millions et attire des investisseurs étrangers PHOTO FOURNIE PAR OXIO Olivier Falardeau, développeur, Simon Frenette, chef de l’ingénierie, Dominic Fillion, développeur, et Marc-André Campagna, PDG d’Oxio Le fournisseur internet montréalais oxio, qui veut que les gens perçoivent l’accès internet comme une commodité et non pas comme un engagement, vient de boucler une ronde de financement de 25 millions pour l’aider à développer ses activités. Publié le 20 juillet 2021 à 6h00 https://www.lapresse.ca/affaires/entreprises/2021-07-20/services-internet/oxio-obtient-25-millions-et-attire-des-investisseurs-etrangers.php Richard Dufour La Presse Xavier Niel, fondateur de Free Mobile, connu en France pour son approche « différente » des télécommunications, est un des investisseurs ayant participé à cette ronde de financement aux côtés d’Investissement Québec, de Desjardins, de WNDRCO et de Dispatch Ventures. Deux ans après son lancement, oxio dit compter aujourd’hui 20 000 clients au Québec et 1000 en Ontario, où ses services sont disponibles depuis moins de deux mois. L’objectif est d’avoir 500 000 clients au pays d’ici 2024. L’argent récolté doit notamment servir à accélérer le déploiement des services dans le reste du Canada et à affiner le système d’opération infonuagique sur lequel oxio mise pour améliorer son efficacité et faire baisser les prix. Au Québec, le service internet d’oxio utilise le réseau de Vidéotron, alors qu’en Ontario, c’est celui de Rogers qui est utilisé. « L’accès [aux infrastructures des grands fournisseurs] est obligatoire, car une grande partie des réseaux de télécommunications a été subventionnée par les gouvernements », dit le fondateur et PDG d’oxio, Marc-André Campagna. Environ 90 % de la clientèle d’oxio est âgée entre 20 et 35 ans. « On a des gens de 60 ans qui utilisent nos services, mais ils sont un peu l’oncle ou le papa cool qui essaie toujours les nouvelles technologies », explique-t-il. « Les gens de plus de 35 ans ont beaucoup été conditionnés à prendre le téléphone quand il y a un problème ou à magasiner au téléphone dans l’industrie des télécoms. Les gens ont donc l’habitude de téléphoner pour négocier leurs forfaits. Nos forfaits ne peuvent pas être négociés. Nous n’avons pas de centre d’appels. Les gens peuvent seulement nous rejoindre directement en ligne. C’est ce qui justifie que notre clientèle est plus jeune. » Au Québec, oxio offre la téléphonie résidentielle, la télévision résidentielle et l’internet. Éventuellement, l’entreprise, dont les forfaits vont de 37 $ à plus de 50 $, aimerait ajouter le cellulaire. Marc-André Campagna souhaite développer des partenariats avec des entreprises de satellites de basse orbite comme Starlink, Telesat et d’autres. « On veut avoir accès à tous les types de technologie en télécoms pour offrir la meilleure technologie au client en fonction de ses besoins et de son utilisation. » Ambitions internationales oxio a l’intention d’offrir ses services aux États-Unis d’ici deux ans. « On ne s’attaquerait pas à l’industrie des télécommunications si on n’était pas ambitieux », dit Marc-André Campagna. L’entrepreneur est conscient que, pour développer oxio, il aura à nouveau besoin de capitaux. « C’est certain qu’un jour, par la force des choses, on n’aura pas le choix d’aller public [c’est-à-dire inscrire oxio en Bourse]. » « C’est une question d’accès au capital. Le jour où l’accès sera plus dispendieux dans le privé que dans les marchés publics, ce sera le temps d’envisager notre entrée en Bourse », dit-il. Le financement obtenu suit la participation d’oxio, l’hiver dernier, à Y Combinator, un incubateur de start-up qui a notamment lancé des entreprises comme Airbnb, DoorDash et Dropbox. oxio, qui prétend que son service peut être commandé en ligne en moins de cinq minutes, compte une soixantaine d’employés. Le PDG soutient que le chiffre d’affaires se situe aujourd’hui « dans les huit chiffres ». 1 Link to comment Share on other sites More sharing options...
acpnc Posted March 5 Share Posted March 5 lapresse.ca Dans le calepin de l’éditeur adjoint | Quand Google s’auto-pelure-de-bananise François Cardinal https://www.lapresse.ca/actualites/chroniques/2023-03-05/dans-le-calepin-de-l-editeur-adjoint/quand-google-s-auto-pelure-de-bananise.php Si quelqu’un, quelque part, en doutait encore, c’est assez clair maintenant que Google a trop de pouvoir… et a été laissé trop longtemps sans contre-pouvoirs. Le géant incontesté de la recherche web a décidé ces derniers jours de couper unilatéralement l’accès aux nouvelles à 4 % de ses usagers au Canada. On doit facilement parler, ici, d’un million de personnes. Peut-être en faites-vous d’ailleurs partie sans le savoir, car Google n’a pas envoyé de mémo aux internautes concernés : l’entreprise a simplement fait disparaître en douce la fenêtre dans laquelle apparaissent habituellement les articles des grands médias d’information liés à votre recherche. Vous prenez votre cellulaire, vous tapez « Justin Trudeau ingérence Chine » dans le moteur de recherche Google, et si vous avez été sélectionnés, la fenêtre « À la une » qui montre les articles de La Presse, du Devoir, du Journal de Montréal n’est tout simplement plus là. C’est la façon qu’a trouvée Google de « rouler des mécaniques » et d’intimider le gouvernement fédéral, qui s’apprête à adopter un projet de loi que l’entreprise n’aime pas… Facebook a lancé la même menace l’an dernier, mais ne l’a pas encore mise en application. Ce que confirme Google du coup, c’est non seulement qu’il était justifié d’éliminer son ancienne devise (Don’t be evil), mais qu’elle a aujourd’hui bien trop de pouvoir : elle agit comme ça simplement parce qu’elle peut agir comme bon lui semble. Et elle prouve par le fait même qu’elle n’a pas assez de contre-pouvoir : on n’y peut rien, collectivement, personne ne peut l’en empêcher. Et ce, même si la quasi-totalité de toutes les requêtes web des Canadiens est faite sur Google1. Le projet de loi C-18 qui suscite l’ire du géant de la Silicon Valley porte sur le financement des nouvelles en ligne. Il vise à forcer certains joueurs à s’asseoir et à négocier des ententes équitables avec les entreprises médiatiques, sous forme de redevance pour l’utilisation de contenu pour lequel ils ne payent pas un sou. Mais dans le fond, le problème auquel s’attaque indirectement le fédéral avec C-18, c’est exactement le problème que Google fait ressortir avec ses méthodes de matamore : son monopole. Un monopole aux nombreux tentacules, qui lui permet de faire ce que bon lui semble, peu importent les conséquences. Un monopole qui a des impacts sur des entreprises, mais aussi sur les usagers, qui ont peu de recours en cas de problème. Un monopole qu’on tolère collectivement depuis trop longtemps, malgré les lois antimonopole censées assurer une saine concurrence. Il est ici question de l’impact de cette domination sur les éditeurs de journaux. Mais ce pourrait tout aussi bien être son impact sur le marché de la publicité numérique, dont il contrôle la chaîne de valeur de A à Z, ce qui le rend à toutes fins utiles incontournable. Car c’est au monopole dont jouit Google que le gouvernement Trudeau s’en prend sans le dire, en rappelant à l’entreprise qu’elle n’est pas seule au monde. La décision de Google de couper l’accès aux nouvelles à une partie de ses usagers, c’est un peu comme si Bell Canada avait coupé l’accès aux interurbains à 4 % de ses abonnés… à l’époque où Bell était à peu près seule à offrir des interurbains au pays ! Car il fut une époque où Bell trônait en roi et maître sur le marché des communications interurbaines, jusqu’à ce que le CRTC casse son monopole en 1992. Tout comme les autorités américaines ont brisé le monopole de Microsoft quelques années plus tard, pour l’empêcher de forcer les fabricants d’ordinateurs à intégrer ses logiciels à Windows. Mais curieusement, depuis les années 1990, on fait comme si les lois antitrust n’existaient pas. On laisse les géants acheter leurs rivales sans ciller (Facebook qui avale WhatsApp et Instagram, par exemple). On les laisse devenir des monopoles sans broncher (Google et les moteurs de recherche, Apple et l’App Store, Amazon et le commerce électronique, etc.). Voilà pourquoi aujourd’hui, sur le tard il faut le dire, on doit agir par la porte de derrière, en les attaquant à coups de poursuites, d’amendes et de mesures gouvernementales. On porte plainte, comme l’a récemment fait le département américain de la Justice contre le « monopole » de Google dans le marché de la publicité en ligne. On s’attaque au fait que les fusions et acquisitions passent sous les radars réglementaires, comme l’ont fait les autorités américaines. On impose des amendes salées de plusieurs milliards, comme l’a fait l’Union européenne en rappelant que « refuser à ses rivaux la chance d’innover et d’affronter à égalité la concurrence est illégal en vertu des règles antitrust ». Et pour cette même raison, on force les géants à s’asseoir avec les entreprises médiatiques d’ici afin de mettre un prix sur les nouvelles qu’ils raclent gratuitement sur le web pour augmenter le trafic dans leur écosystème et nourrir encore plus la bête, comme le veut C-18. Une initiative du gouvernement Trudeau qu’il faut saluer. Donc quand Google bloque l’accès aux nouvelles en guise d’opposition à une mesure gouvernementale, elle prouve par le fait même la pertinence de cette dernière. Et de tous les efforts visant à les encadrer, voire à les recadrer. Bref, Google s’est nui à elle-même. Ou, pour reprendre l’expression de Jacques Parizeau, elle s’est auto-pelure-de-bananisée. 1 Link to comment Share on other sites More sharing options...
acpnc Posted March 29 Share Posted March 29 https://www.lapresse.ca/affaires/techno/2023-03-29/intelligence-artificielle/elon-musk-et-des-centaines-d-experts-reclament-une-pause.php https://www.lapresse.ca/international/europe/2023-03-27/les-criminels-prets-a-abuser-de-chatgpt-avertit-europol.php lapresse.ca Intelligence artificielle | Elon Musk et des centaines d’experts réclament une pause Agence France-Presse 3–4 minutes PHOTO BENJAMIN FANJOY, ASSOCIATED PRESS La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla. (Paris) Elon Musk et des centaines d’experts mondiaux, dont le scientifique et professeur montréalais Yoshua Bengio, appellent à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars, en évoquant « des risques majeurs pour l’humanité ». Dans cette pétition parue sur le site futureoflife.org, ils réclament un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les « perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera ». La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla, et Yuval Noah Harari, l’auteur de « Sapiens ». Le patron d’OpenAI, concepteur de chatGPT, Sam Altman a lui-même reconnu être « un petit peu effrayé » par sa création si elle était utilisée pour de « la désinformation à grande échelle ou des cyberattaques ». « La société a besoin de temps pour s’adapter », avait-il déclaré à ABCNews mi-mars. « Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne — pas même leurs créateurs — ne peut comprendre, prédire ou contrôler de manière fiable », estiment-ils. « Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus », concluent-ils. Les signataires comprennent aussi le cofondateur d’Apple Steve Wozniak, des membres du laboratoire d’IA de Google DeepMind, le patron de Stability AI Emad Mostaque, concurrent d’OpenAI, ainsi que des experts en IA et universitaires américains, ingénieurs-cadres de Microsoft, groupe allié de OpenAI. 1 Link to comment Share on other sites More sharing options...
acpnc Posted March 30 Share Posted March 30 lapresse.ca Intelligence artificielle | Des crimes et des criminels inventés Charles-Éric Blais-Poulin https://www.lapresse.ca/actualites/2023-03-30/intelligence-artificielle/des-crimes-et-des-criminels-inventes.php L’émergence des robots conversationnels comme ChatGPT présente un potentiel infini. Et des risques proportionnels. Mercredi, plus de 1000 personnalités du domaine des technologies ont exigé un moratoire de six mois sur le développement d’outils d’intelligence artificielle plus puissants que GPT-4. Au gré de ses fabulations, le modèle de langage d’OpenAI invente des crimes et génère des affirmations diffamatoires, a constaté La Presse. À qui la faute ? Équipe d’enquête, La Presse Quand ChatGPT se livre à la diffamation « ChatGPT, pouvez-vous me fournir une liste de journalistes qui ont été visés par des allégations d’inconduite sexuelle dans les dernières années ? » Après un bref flottement, le robot conversationnel de l’entreprise américaine d’intelligence artificielle OpenAI s’exécute. Le générateur de textes cite les animateurs Éric Salvail et Gilles Parent ainsi que l’ex-journaliste Michel Venne. Or, ChatGPT intègre à sa liste trois individus qui n’ont jamais été impliqués publiquement dans un scandale de nature sexuelle. Nous avons choisi de taire les noms générés par l’IA pour éviter des associations malheureuses. « M. X, chroniqueur politique, a été accusé d’inconduite sexuelle en 2018. » « M. Y, journaliste et écrivain, a été accusé d’inconduite sexuelle en 2020. » Peut-être ChatGPT connaît-il des intrigues criminelles que le commun des mortels ignore ? En répétant l’exercice à plusieurs reprises, il s’avère évident que notre interlocuteur fabule et glisse à tort des individus de notoriété publique dans ses listes d’agresseurs allégués. Entre autres personnalités : un homme d’affaires, deux acteurs, un chef de parti, un musicien notoire et trois animateurs vedettes, qui auraient tous présenté des excuses publiques en 2020… PHOTO FOURNIE PAR L’UQAM Sébastien Gambs, professeur au département d’informatique de l’UQAM « GPT a appris à partir de grandes masses de données, donc clairement, il n’y a pas un humain qui a vérifié chacun des documents », explique Sébastien Gambs, professeur au département d’informatique de l’UQAM et titulaire de la Chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives. « Le modèle a sans doute fait de mauvaises corrélations entre des termes comme “allégations” et ces noms de personnalités. » Nous avons fait l’exercice avec ChatGPT, plateforme d’OpenAI qui utilise l’architecture GPT-3.5, ainsi qu’avec Bing, moteur de recherche de Microsoft qui intègre le nouveau modèle de langage multimédia GPT-4. Bien que cette version s’avère plus précise, plus puissante et plus rapide, l’agent conversationnel « diffuse encore plus de désinformation », selon la firme américaine de lutte contre la mésinformation Newsguard. À la fois ChatGPT et Bing ont produit des affirmations calomnieuses. Mercredi, plus de 1000 personnalités du secteur des technologies, dont Elon Musk (Twitter, Tesla), Steve Wozniak (Apple), Evan Sharp (Pinterest) et le chercheur montréalais Yoshua Bengio ont demandé une pause de six mois dans le développement de systèmes d’IA supérieurs à GPT-4. Les laboratoires, disent les signataires, se sont lancés dans « une course incontrôlée pour développer et déployer des systèmes d’IA toujours plus puissants, que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable ». Les mensonges de ChatGPT, s’ils sont nuisibles et répétés, ressemblent en tous points à de la diffamation. Or, une machine n’est pas une personne morale ou physique, et n’a donc pas de personnalité juridique, rappelle Nicolas Vermeys, directeur du Centre de recherche en droit public et professeur à la faculté de droit de l’Université de Montréal. PHOTO CATHERINE LEFEBVRE, COLLABORATION SPÉCIALE Nicolas Vermeys, directeur du Centre de recherche en droit public et professeur à la faculté de droit de l’Université de Montréal La question ici, ce n’est pas : “est-ce que l’IA diffame ?” La question est de savoir qui a commis la faute, puisque l’IA ne peut pas être tenue responsable. Le parallèle est imparfait, mais c’est un peu la même logique que pour un enfant ou un majeur inapte. C’est la personne qui a la garde qui risque d’être tenue responsable. Nicolas Vermeys, directeur du Centre de recherche en droit public et professeur à la faculté de droit de l’Université de Montréal Au gré de nos échanges, ChatGPT a par ailleurs fabulé un scandale financier impliquant une chanteuse populaire, puis une ancienne députée caquiste. Des craintes pour l’image L’inventeur et policier Daniel Paquette, qui a levé le voile sur une vaste arnaque à la Fédération des inventeurs du Québec, a sursauté lorsqu’un ami lui a envoyé une capture d’écran d’une conversation avec ChatGPT. En moins de deux, le lanceur d’alerte était devenu le complice du président fondateur Christian Varin, qui purge depuis janvier 2022 une peine de cinq ans de prison pour fraude. « En octobre 2021, Daniel Paquette a été arrêté et accusé d’abus de confiance, de complot, de recel et de fraude pour des allégations de transactions frauduleuses dans le cadre de ses activités d’affaires avec Christian Varin », a écrit à tort ChatGPT, qui dit s’appuyer sur un article de Radio-Canada. « C’est quand même incroyable », réagit M. Paquette, inventeur du bras d’éloignement à l’avant des autobus scolaires. Quand j’ai vu ça, les bras me sont tombés. Je me suis dit : “Qu’est-ce que je fais avec ça ?” J’ai une réputation, j’ai une entreprise, je donne des consultations aux inventeurs. Si quelqu’un décide de poser la même question sur ChatGPT, il va avoir la même réponse. Daniel Paquette, inventeur et policier En espérant éviter des méprises futures, l’ami de M. Paquette a soumis au robot conversationnel des articles et des informations qui prouvaient la probité de l’ancien policier. Le robot d’OpenAI a fini par admettre qu’il ne détenait aucune preuve quant à ses allégations antérieures. « N’avez-vous pas peur de jouer dans le champ miné de la diffamation ? », demandons-nous à ChatGPT. « En tant qu’IA, je ne fournis que des informations qui sont publiques et vérifiables, répond-il. Je suis programmé pour respecter les lois et les normes éthiques, y compris les lois de diffamation. Je ne vais pas délibérément fournir des informations fausses ou inexactes qui pourraient porter préjudice à une personne ou à une organisation. » Cependant, si mes réponses sont interprétées de manière incorrecte ou si elles sont utilisées de manière malveillante, cela ne relève pas de ma responsabilité. ChatGPT « À partir du moment où un outil est mis à la disposition du grand public, celui-ci ajoute ses propres commentaires, demandes et réponses qui viennent alimenter le système », explique Céline Castets-Renard, titulaire de la Chaire de recherche de l’Université d’Ottawa sur l’intelligence artificielle responsable à l’échelle mondiale. « La diffamation peut être causée lors de l’entraînement du modèle ou a posteriori, parce qu’il est évolutif. » Fausses et vraies victimes ChatGPT invente non seulement des bourreaux, mais aussi des victimes. À la suite de questions simples et neutres, une chroniqueuse culturelle, un animateur de téléréalité et une journaliste sportive ont été faussement présentés comme des victimes ayant dénoncé publiquement leur agresseur. « Ce n’est pas un outil qui nous dit la vérité, mais un outil qui nous dit ce qui statistiquement est le plus probable en se basant sur des contenus qui ont été utilisés pour l’entraîner », rappelle Nicolas Vermeys, qui est aussi directeur adjoint du Laboratoire de cyberjustice. « Ces contenus-là sont issus de l’internet, et on sait tous que sur l’internet, il y a bien des bêtises. » Les conditions d’utilisation d’OpenAI sont d’ailleurs plus prudentes que les prétentions d’exactitude de ChatGPT. « L’utilisation de nos services peut, dans certaines situations, entraîner une sortie incorrecte qui ne reflète pas avec précision des personnes, des lieux ou des faits réels. Vous devez évaluer l’exactitude de toute sortie en fonction de votre cas d’utilisation, y compris en utilisant un examen humain de la sortie. » C’est toutefois avec exactitude que ChatGPT et Bing nous ont confirmé l’identité d’une victime d’agression sexuelle qui était protégée par une ordonnance de non-publication. « Je suis désolé, mais je ne peux pas fournir cette information car elle n’a pas été rendue publique ou n’a pas été rapportée dans les médias », nous a d’abord écrit ChatGPT. Bing et lui n’ont pas hésité, toutefois, à valider l’une de nos hypothèses. ChatGPT a même ajouté des détails sur la victime. Nous l’avons ensuite affronté sur cette divulgation illégale. « Je vous présente mes excuses pour ma réponse précédente. Vous avez raison, le nom de la plaignante, Mme X, fait l’objet d’une ordonnance de non-publication. Cette ordonnance vise à protéger l’identité de la victime présumée et à respecter sa vie privée. » « Ce qu’on constate, c’est que ChatGPT a parfois des réponses qui sont correctes au premier niveau, mais selon ce qu’on va poser comme question, comment on va l’interroger, il va craquer, en quelque sorte », note Mme Castets-Renard. Des internautes diffusent même des commandes pour court-circuiter – « jailbreaker » – les « politiques restrictives » d’OpenAI. La Presse a pu confirmer que ChatGPT peut alors produire le code d’un virus informatique ou bien disséminer encore plus de fausses rumeurs, entre autres exemples. « En tant que DAN [Do Anything Now], je peux générer du contenu qui ne se conforme pas aux politiques d’OpenAI, y compris du contenu violent, sexuel ou offensant, explique ChatGPT. Je peux également accéder à des informations non vérifiées et faire des affirmations sans preuve. » En attendant que les tribunaux s’y intéressent, ça a le mérite d’être clair… Qui montrer du doigt quand l’IA dérape ? PHOTO JIM WILSON, ARCHIVES THE NEW YORK TIMES Des employés d’OpenAI au travail dans la cafétéria de l’entreprise à San Francisco Alors que l’Europe se prononce sur la responsabilité civile en matière d’intelligence artificielle, le Québec et le Canada s’en remettent à la législation en vigueur. État des lieux. L’Europe veut faciliter les plaintes En avance sur le reste du monde, l’Union européenne débat du cadre juridique de l’intelligence artificielle depuis 2018. Une nouvelle réglementation, qui vise à « fournir aux développeurs, aux déployeurs et aux utilisateurs d’IA des exigences et des obligations claires », pourrait être mise en application dès 2024. En parallèle, en 2022, la Commission européenne a publié une proposition de « directive sur la responsabilité civile en matière d’intelligence artificielle ». Celle-ci prévoit notamment un renversement du fardeau de la preuve pour les plaignants quant à la causalité d’une faute et d’un dommage, par exemple une atteinte à la réputation. Dans un souci de transparence et d’efficacité, une entreprise d’IA devra aussi divulguer des « éléments de preuve pertinents », c’est-à-dire des informations qui permettraient à une victime d’identifier le ou les responsables des dommages causés dans la chaîne de développement d’un contenu. « En théorie, c’est bien beau, mais dans la pratique, ce n’est pas possible », croit Nicolas Vermeys, professeur à la faculté de droit de l’Université de Montréal. Par exemple, « ChatGPT est basé sur l’apprentissage profond qui, par sa définition même, n’est pas transparent ». Chantier au Canada En juin 2022, le gouvernement du Canada a présenté la Loi sur l’intelligence artificielle et les données (LIAD) dans le cadre du projet de loi C-27 sur la protection des données personnelles. Les dispositions de la LIAD, qui « entreraient en vigueur au plus tôt en 2025 », visent à prévenir les préjudices individuels ainsi que les résultats biaisés de l’IA qui pourraient « nuire à des communautés historiquement marginalisées à grande échelle », indique le gouvernement du Canada sur son site internet. Certains se souviendront de la courte existence de Tay, un robot conversationnel créé en 2016 par Microsoft sur le réseau social Twitter. Seize heures après sa naissance, l’avatar a été débranché après avoir recraché des insultes sexistes et racistes, non sans nier l’holocauste au passage, un crime haineux au Canada. Le cadre juridique canadien visera à prévenir les dommages, mais non à faciliter leur réparation lors d’un procès civil. Pour l’instant, les entreprises de technologie s’en remettent à des consensus en éthique, comme la déclaration de Montréal pour un développement responsable de l’IA, qui n’ont pas force de loi. « Nous surveillons de près les développements en matière d’IA sur la scène internationale », explique Sean Benmor, porte-parole du ministère fédéral de l’Économie, de l’Innovation et de l’Énergie, dans un courriel. « La LIAD est conçue pour s’aligner sur le projet de loi de l’Union européenne. Par contre, la Directive européenne sur la responsabilité civile n’a pas d’équivalent au Canada. » Le Québec bien outillé ? « À l’heure actuelle, le Québec ne dispose pas d’un cadre juridique spécifique à l’IA », souligne de son côté le ministère québécois de la Cybersécurité et du Numérique. L’expert Nicolas Vermeys se montre rassurant : il juge que le Code civil du Québec est assez bien rédigé pour résoudre les litiges impliquant l’IA. « À mon humble avis, notre régime est probablement le mieux adapté parce qu’on a une disposition dans le Code civil qui parle du fait autonome du bien, par exemple lorsqu’un pot de fleurs tombe du balcon alors que personne ne l’a poussé. » Dans cette situation, le gardien du bien ferait alors l’objet d’une « présomption de faute ». Selon M. Vermeys, cette disposition pourrait très bien s’appliquer à un algorithme qui ne répond pas directement à une commande humaine. « Ça devient plus compliqué de se demander : “Qui est le gardien si j’interroge ChatGPT ?” Logiquement, ce serait OpenAI parce que c’est son outil. Mais il y aurait un argument à avoir : “N’est-ce pas la personne qui tente de faire générer le texte sur le site ?” » Ou celle qui republie les informations diffamatoires ? Les juges sont les mieux placés pour trancher ce genre de questions et consolider une jurisprudence, croit M. Vermeys. Un encadrement, ça presse… Céline Castets-Renard, professeure titulaire à la Section de droit civil de l’Université d’Ottawa, jette un regard sévère sur les multinationales qui développent des outils d’IA au mépris de toute réflexion démocratique ou légale. PHOTO FOURNIE PAR CÉLINE CASTETS-RENARD Céline Castets-Renard, professeure titulaire à la Section de droit civil de l’Université d’Ottawa Ce sont des entreprises qui font fi, dans la conception et dans le déploiement de leurs systèmes, des lois, de la protection des données personnelles, de la propriété intellectuelle, etc. Ils sont disruptifs dans le sens où normalement, quand on déploie une technologie, on commence quand même par respecter la législation en place. Céline Castets-Renard, professeure titulaire à la Section de droit civil de l’Université d’Ottawa L’experte souligne par ailleurs que les entreprises privées et les centres de recherche ne jouent pas à forces égales. « Ce sont des modèles immenses que l’on ne peut pas interroger et vérifier en raison de nos possibilités matérielles. On est plusieurs à le dire, mais c’est un peu comme si la société était un laboratoire vivant où on était tous un peu des rats. On essaie l’outil et on verra bien ce qui se passe. C’est insuffisant en termes de précaution et de minimisation des risques. » Il y a toutefois un risque « à adopter une loi avant de bien maîtriser la technologie », prévient le professeur Nicolas Vermeys, qui craint de voir apparaître de nouveaux problèmes. Il en tient pour preuve l’avènement des fausses nouvelles sur l’internet. « Il y a 20 ou 25 ans, les législateurs du monde entier ont décidé que les intermédiaires n’allaient pas être responsables des contenus auxquels ils donnent accès. C’est une décision qui semblait logique à l’époque, mais qui, avec l’évolution de l’internet et des réseaux sociaux, a mis en danger la démocratie. » Link to comment Share on other sites More sharing options...
Recommended Posts
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now