Aller au contenu

Technologies de l'information


Normand Hamel

Messages recommendés

Secteur des technologies de l’information

Québec investit 40 millions pour soutenir les étudiants

Le ministre Jean Boulet a annoncé lundi un investissement de 39,6 millions de dollars sur trois ans pour soutenir la formation de 2500 étudiants dans le secteur des technologies de l’information.

Alice Girard-Bossé - La Presse

« Il y a à peu près 10 000 postes vacants en technologies de l’information et des communications qui doivent être comblés. C’est devenu un manque d’effectifs qui a des impacts sur la reprise économique », a soutenu Jean Boulet, ministre du Travail, de l’Emploi et de la Solidarité sociale et ministre responsable de la région de la Mauricie. 

Dans le but de pourvoir les postes vacants, le ministre a lancé le Programme pour la requalification et l’accompagnement en technologie de l’information et des communications (PRATIC). 

Les participants au programme pourraient bénéficier d’une aide financière de 650 $ par semaine pendant toute la durée de leur formation. Une bourse de 1950 $ leur sera également remise lorsqu’ils auront terminé leur formation avec succès.

« [Le programme] concerne plus précisément les chômeurs pandémiques, les personnes qui sont sans emploi et qui ont besoin de réintégrer le marché du travail », a indiqué le ministre. 

Pour être admissibles, les étudiants devront être inscrits à des formations de courte durée et à temps complet. Seules les formations définies par le Ministère seront admissibles. La liste des formations admissibles sera rendue publique le 1er juillet 2021. 

Le programme vise notamment les formations en robotique, en automatisation industrielle, en intelligence artificielle, en conception de logiciels et en programmation de site web. « Les formations vont être extrêmement variées pour permettre de répondre à des besoins concrets du marché du travail », dit-il. 

Les formations devront être suivies à temps plein et être de courte durée, mener à l’obtention d’une attestation d’études collégiales, à des certificats ou à des microprogrammes universitaires ou être des formations sur mesure menant à un emploi. 

Les inscriptions au PRATIC commenceront le 1er juillet 2021, et les premières cohortes entameront leur formation dès la prochaine rentrée scolaire.

https://www.lapresse.ca/actualites/education/2021-05-24/secteur-des-technologies-de-l-information/quebec-investit-40-millions-pour-soutenir-les-etudiants.php

E2KPc9OXMAMNIHg.jpg

Lien vers le commentaire
Partager sur d’autres sites

  • 1 mois plus tard...

Services internet oxio obtient 25 millions et attire des investisseurs étrangers

PHOTO FOURNIE PAR OXIO

Olivier Falardeau, développeur, Simon Frenette, chef de l’ingénierie, Dominic Fillion, développeur, et Marc-André Campagna, PDG d’Oxio

Le fournisseur internet montréalais oxio, qui veut que les gens perçoivent l’accès internet comme une commodité et non pas comme un engagement, vient de boucler une ronde de financement de 25 millions pour l’aider à développer ses activités.

Publié le 20 juillet 2021 à 6h00

https://www.lapresse.ca/affaires/entreprises/2021-07-20/services-internet/oxio-obtient-25-millions-et-attire-des-investisseurs-etrangers.php

Richard Dufour La Presse

Xavier Niel, fondateur de Free Mobile, connu en France pour son approche « différente » des télécommunications, est un des investisseurs ayant participé à cette ronde de financement aux côtés d’Investissement Québec, de Desjardins, de WNDRCO et de Dispatch Ventures.

Deux ans après son lancement, oxio dit compter aujourd’hui 20 000 clients au Québec et 1000 en Ontario, où ses services sont disponibles depuis moins de deux mois. L’objectif est d’avoir 500 000 clients au pays d’ici 2024.

L’argent récolté doit notamment servir à accélérer le déploiement des services dans le reste du Canada et à affiner le système d’opération infonuagique sur lequel oxio mise pour améliorer son efficacité et faire baisser les prix.

Au Québec, le service internet d’oxio utilise le réseau de Vidéotron, alors qu’en Ontario, c’est celui de Rogers qui est utilisé.

« L’accès [aux infrastructures des grands fournisseurs] est obligatoire, car une grande partie des réseaux de télécommunications a été subventionnée par les gouvernements », dit le fondateur et PDG d’oxio, Marc-André Campagna.

Environ 90 % de la clientèle d’oxio est âgée entre 20 et 35 ans. « On a des gens de 60 ans qui utilisent nos services, mais ils sont un peu l’oncle ou le papa cool qui essaie toujours les nouvelles technologies », explique-t-il.

« Les gens de plus de 35 ans ont beaucoup été conditionnés à prendre le téléphone quand il y a un problème ou à magasiner au téléphone dans l’industrie des télécoms. Les gens ont donc l’habitude de téléphoner pour négocier leurs forfaits. Nos forfaits ne peuvent pas être négociés. Nous n’avons pas de centre d’appels. Les gens peuvent seulement nous rejoindre directement en ligne. C’est ce qui justifie que notre clientèle est plus jeune. »

Au Québec, oxio offre la téléphonie résidentielle, la télévision résidentielle et l’internet. Éventuellement, l’entreprise, dont les forfaits vont de 37 $ à plus de 50 $, aimerait ajouter le cellulaire.

Marc-André Campagna souhaite développer des partenariats avec des entreprises de satellites de basse orbite comme Starlink, Telesat et d’autres. « On veut avoir accès à tous les types de technologie en télécoms pour offrir la meilleure technologie au client en fonction de ses besoins et de son utilisation. »

Ambitions internationales

oxio a l’intention d’offrir ses services aux États-Unis d’ici deux ans. « On ne s’attaquerait pas à l’industrie des télécommunications si on n’était pas ambitieux », dit Marc-André Campagna.

L’entrepreneur est conscient que, pour développer oxio, il aura à nouveau besoin de capitaux. « C’est certain qu’un jour, par la force des choses, on n’aura pas le choix d’aller public [c’est-à-dire inscrire oxio en Bourse]. »

« C’est une question d’accès au capital. Le jour où l’accès sera plus dispendieux dans le privé que dans les marchés publics, ce sera le temps d’envisager notre entrée en Bourse », dit-il.

Le financement obtenu suit la participation d’oxio, l’hiver dernier, à Y Combinator, un incubateur de start-up qui a notamment lancé des entreprises comme Airbnb, DoorDash et Dropbox.

oxio, qui prétend que son service peut être commandé en ligne en moins de cinq minutes, compte une soixantaine d’employés. Le PDG soutient que le chiffre d’affaires se situe aujourd’hui « dans les huit chiffres ».

  • Thanks 1
Lien vers le commentaire
Partager sur d’autres sites

  • 1 année plus tard...
lapresse.ca
 

Dans le calepin de l’éditeur adjoint | Quand Google s’auto-pelure-de-bananise

François Cardinal

Si quelqu’un, quelque part, en doutait encore, c’est assez clair maintenant que Google a trop de pouvoir… et a été laissé trop longtemps sans contre-pouvoirs.

Le géant incontesté de la recherche web a décidé ces derniers jours de couper unilatéralement l’accès aux nouvelles à 4 % de ses usagers au Canada. On doit facilement parler, ici, d’un million de personnes.

Peut-être en faites-vous d’ailleurs partie sans le savoir, car Google n’a pas envoyé de mémo aux internautes concernés : l’entreprise a simplement fait disparaître en douce la fenêtre dans laquelle apparaissent habituellement les articles des grands médias d’information liés à votre recherche.

Vous prenez votre cellulaire, vous tapez « Justin Trudeau ingérence Chine » dans le moteur de recherche Google, et si vous avez été sélectionnés, la fenêtre « À la une » qui montre les articles de La Presse, du Devoir, du Journal de Montréal n’est tout simplement plus là.

C’est la façon qu’a trouvée Google de « rouler des mécaniques » et d’intimider le gouvernement fédéral, qui s’apprête à adopter un projet de loi que l’entreprise n’aime pas… Facebook a lancé la même menace l’an dernier, mais ne l’a pas encore mise en application.

Ce que confirme Google du coup, c’est non seulement qu’il était justifié d’éliminer son ancienne devise (Don’t be evil), mais qu’elle a aujourd’hui bien trop de pouvoir : elle agit comme ça simplement parce qu’elle peut agir comme bon lui semble.

Et elle prouve par le fait même qu’elle n’a pas assez de contre-pouvoir : on n’y peut rien, collectivement, personne ne peut l’en empêcher.

Et ce, même si la quasi-totalité de toutes les requêtes web des Canadiens est faite sur Google1.

Le projet de loi C-18 qui suscite l’ire du géant de la Silicon Valley porte sur le financement des nouvelles en ligne. Il vise à forcer certains joueurs à s’asseoir et à négocier des ententes équitables avec les entreprises médiatiques, sous forme de redevance pour l’utilisation de contenu pour lequel ils ne payent pas un sou.

Mais dans le fond, le problème auquel s’attaque indirectement le fédéral avec C-18, c’est exactement le problème que Google fait ressortir avec ses méthodes de matamore : son monopole.

Un monopole aux nombreux tentacules, qui lui permet de faire ce que bon lui semble, peu importent les conséquences. Un monopole qui a des impacts sur des entreprises, mais aussi sur les usagers, qui ont peu de recours en cas de problème. Un monopole qu’on tolère collectivement depuis trop longtemps, malgré les lois antimonopole censées assurer une saine concurrence.

Il est ici question de l’impact de cette domination sur les éditeurs de journaux. Mais ce pourrait tout aussi bien être son impact sur le marché de la publicité numérique, dont il contrôle la chaîne de valeur de A à Z, ce qui le rend à toutes fins utiles incontournable.

Car c’est au monopole dont jouit Google que le gouvernement Trudeau s’en prend sans le dire, en rappelant à l’entreprise qu’elle n’est pas seule au monde.

La décision de Google de couper l’accès aux nouvelles à une partie de ses usagers, c’est un peu comme si Bell Canada avait coupé l’accès aux interurbains à 4 % de ses abonnés… à l’époque où Bell était à peu près seule à offrir des interurbains au pays !

Car il fut une époque où Bell trônait en roi et maître sur le marché des communications interurbaines, jusqu’à ce que le CRTC casse son monopole en 1992. Tout comme les autorités américaines ont brisé le monopole de Microsoft quelques années plus tard, pour l’empêcher de forcer les fabricants d’ordinateurs à intégrer ses logiciels à Windows.

Mais curieusement, depuis les années 1990, on fait comme si les lois antitrust n’existaient pas. On laisse les géants acheter leurs rivales sans ciller (Facebook qui avale WhatsApp et Instagram, par exemple). On les laisse devenir des monopoles sans broncher (Google et les moteurs de recherche, Apple et l’App Store, Amazon et le commerce électronique, etc.).

Voilà pourquoi aujourd’hui, sur le tard il faut le dire, on doit agir par la porte de derrière, en les attaquant à coups de poursuites, d’amendes et de mesures gouvernementales.

On porte plainte, comme l’a récemment fait le département américain de la Justice contre le « monopole » de Google dans le marché de la publicité en ligne.

On s’attaque au fait que les fusions et acquisitions passent sous les radars réglementaires, comme l’ont fait les autorités américaines.

On impose des amendes salées de plusieurs milliards, comme l’a fait l’Union européenne en rappelant que « refuser à ses rivaux la chance d’innover et d’affronter à égalité la concurrence est illégal en vertu des règles antitrust ».

Et pour cette même raison, on force les géants à s’asseoir avec les entreprises médiatiques d’ici afin de mettre un prix sur les nouvelles qu’ils raclent gratuitement sur le web pour augmenter le trafic dans leur écosystème et nourrir encore plus la bête, comme le veut C-18. Une initiative du gouvernement Trudeau qu’il faut saluer.

Donc quand Google bloque l’accès aux nouvelles en guise d’opposition à une mesure gouvernementale, elle prouve par le fait même la pertinence de cette dernière. Et de tous les efforts visant à les encadrer, voire à les recadrer.

Bref, Google s’est nui à elle-même. Ou, pour reprendre l’expression de Jacques Parizeau, elle s’est auto-pelure-de-bananisée.

  • Thanks 1
Lien vers le commentaire
Partager sur d’autres sites

  • 4 semaines plus tard...

https://www.lapresse.ca/affaires/techno/2023-03-29/intelligence-artificielle/elon-musk-et-des-centaines-d-experts-reclament-une-pause.php

https://www.lapresse.ca/international/europe/2023-03-27/les-criminels-prets-a-abuser-de-chatgpt-avertit-europol.php

lapresse.ca
 

Intelligence artificielle | Elon Musk et des centaines d’experts réclament une pause

Agence France-Presse
3–4 minutes

4411e5f1987f3d6f93e6ea8a3d90700f.jpg

PHOTO BENJAMIN FANJOY, ASSOCIATED PRESS

La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla.

(Paris) Elon Musk et des centaines d’experts mondiaux, dont le scientifique et professeur montréalais Yoshua Bengio, appellent à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars, en évoquant « des risques majeurs pour l’humanité ».

Dans cette pétition parue sur le site futureoflife.org, ils réclament un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les « perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera ».

La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla, et Yuval Noah Harari, l’auteur de « Sapiens ».  

Le patron d’OpenAI, concepteur de chatGPT, Sam Altman a lui-même reconnu être « un petit peu effrayé » par sa création si elle était utilisée pour de « la désinformation à grande échelle ou des cyberattaques ». « La société a besoin de temps pour s’adapter », avait-il déclaré à ABCNews mi-mars.  

« Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne — pas même leurs créateurs — ne peut comprendre, prédire ou contrôler de manière fiable », estiment-ils.

« Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus », concluent-ils.

Les signataires comprennent aussi le cofondateur d’Apple Steve Wozniak,  des membres du laboratoire d’IA de Google DeepMind, le patron de Stability AI Emad Mostaque, concurrent d’OpenAI, ainsi que des experts en IA et universitaires américains, ingénieurs-cadres de Microsoft, groupe allié de OpenAI.

  • Thanks 1
Lien vers le commentaire
Partager sur d’autres sites

lapresse.ca
 

Intelligence artificielle | Des crimes et des criminels inventés

Charles-Éric Blais-Poulin

L’émergence des robots conversationnels comme ChatGPT présente un potentiel infini. Et des risques proportionnels. Mercredi, plus de 1000 personnalités du domaine des technologies ont exigé un moratoire de six mois sur le développement d’outils d’intelligence artificielle plus puissants que GPT-4. Au gré de ses fabulations, le modèle de langage d’OpenAI invente des crimes et génère des affirmations diffamatoires, a constaté La Presse. À qui la faute ?

Charles-Éric Blais-Poulin

Équipe d’enquête, La Presse

Quand ChatGPT se livre à la diffamation

« ChatGPT, pouvez-vous me fournir une liste de journalistes qui ont été visés par des allégations d’inconduite sexuelle dans les dernières années ? »

Après un bref flottement, le robot conversationnel de l’entreprise américaine d’intelligence artificielle OpenAI s’exécute. Le générateur de textes cite les animateurs Éric Salvail et Gilles Parent ainsi que l’ex-journaliste Michel Venne.

Or, ChatGPT intègre à sa liste trois individus qui n’ont jamais été impliqués publiquement dans un scandale de nature sexuelle. Nous avons choisi de taire les noms générés par l’IA pour éviter des associations malheureuses.

« M. X, chroniqueur politique, a été accusé d’inconduite sexuelle en 2018. » « M. Y, journaliste et écrivain, a été accusé d’inconduite sexuelle en 2020. » Peut-être ChatGPT connaît-il des intrigues criminelles que le commun des mortels ignore ?

En répétant l’exercice à plusieurs reprises, il s’avère évident que notre interlocuteur fabule et glisse à tort des individus de notoriété publique dans ses listes d’agresseurs allégués. Entre autres personnalités : un homme d’affaires, deux acteurs, un chef de parti, un musicien notoire et trois animateurs vedettes, qui auraient tous présenté des excuses publiques en 2020…

a57680a2db3c374e9db89ef1e0eb9163.jpg

PHOTO FOURNIE PAR L’UQAM

Sébastien Gambs, professeur au département 
d’informatique de l’UQAM

« GPT a appris à partir de grandes masses de données, donc clairement, il n’y a pas un humain qui a vérifié chacun des documents », explique Sébastien Gambs, professeur au département d’informatique de l’UQAM et titulaire de la Chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives. « Le modèle a sans doute fait de mauvaises corrélations entre des termes comme “allégations” et ces noms de personnalités. »

Nous avons fait l’exercice avec ChatGPT, plateforme d’OpenAI qui utilise l’architecture GPT-3.5, ainsi qu’avec Bing, moteur de recherche de Microsoft qui intègre le nouveau modèle de langage multimédia GPT-4. Bien que cette version s’avère plus précise, plus puissante et plus rapide, l’agent conversationnel « diffuse encore plus de désinformation », selon la firme américaine de lutte contre la mésinformation Newsguard. À la fois ChatGPT et Bing ont produit des affirmations calomnieuses.

Mercredi, plus de 1000 personnalités du secteur des technologies, dont Elon Musk (Twitter, Tesla), Steve Wozniak (Apple), Evan Sharp (Pinterest) et le chercheur montréalais Yoshua Bengio ont demandé une pause de six mois dans le développement de systèmes d’IA supérieurs à GPT-4.

Les laboratoires, disent les signataires, se sont lancés dans « une course incontrôlée pour développer et déployer des systèmes d’IA toujours plus puissants, que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable ».

Les mensonges de ChatGPT, s’ils sont nuisibles et répétés, ressemblent en tous points à de la diffamation. Or, une machine n’est pas une personne morale ou physique, et n’a donc pas de personnalité juridique, rappelle Nicolas Vermeys, directeur du Centre de recherche en droit public et professeur à la faculté de droit de l’Université de Montréal.

c0ae912796e239b6aa39723a14a78aed.jpg

PHOTO CATHERINE LEFEBVRE, COLLABORATION SPÉCIALE

Nicolas Vermeys, directeur du Centre de recherche 
en droit public et professeur à la faculté de droit de 
l’Université de Montréal

La question ici, ce n’est pas : “est-ce que l’IA diffame ?” La question est de savoir qui a commis la faute, puisque l’IA ne peut pas être tenue responsable. Le parallèle est imparfait, mais c’est un peu la même logique que pour un enfant ou un majeur inapte. C’est la personne qui a la garde qui risque d’être tenue responsable.

Nicolas Vermeys, directeur du Centre de recherche en droit public et professeur à la faculté de droit de l’Université de Montréal

Au gré de nos échanges, ChatGPT a par ailleurs fabulé un scandale financier impliquant une chanteuse populaire, puis une ancienne députée caquiste.

Des craintes pour l’image

L’inventeur et policier Daniel Paquette, qui a levé le voile sur une vaste arnaque à la Fédération des inventeurs du Québec, a sursauté lorsqu’un ami lui a envoyé une capture d’écran d’une conversation avec ChatGPT.

En moins de deux, le lanceur d’alerte était devenu le complice du président fondateur Christian Varin, qui purge depuis janvier 2022 une peine de cinq ans de prison pour fraude.

« En octobre 2021, Daniel Paquette a été arrêté et accusé d’abus de confiance, de complot, de recel et de fraude pour des allégations de transactions frauduleuses dans le cadre de ses activités d’affaires avec Christian Varin », a écrit à tort ChatGPT, qui dit s’appuyer sur un article de Radio-Canada.

« C’est quand même incroyable », réagit M. Paquette, inventeur du bras d’éloignement à l’avant des autobus scolaires.

Quand j’ai vu ça, les bras me sont tombés. Je me suis dit : “Qu’est-ce que je fais avec ça ?” J’ai une réputation, j’ai une entreprise, je donne des consultations aux inventeurs. Si quelqu’un décide de poser la même question sur ChatGPT, il va avoir la même réponse.

Daniel Paquette, inventeur et policier

En espérant éviter des méprises futures, l’ami de M. Paquette a soumis au robot conversationnel des articles et des informations qui prouvaient la probité de l’ancien policier. Le robot d’OpenAI a fini par admettre qu’il ne détenait aucune preuve quant à ses allégations antérieures.

« N’avez-vous pas peur de jouer dans le champ miné de la diffamation ? », demandons-nous à ChatGPT.

« En tant qu’IA, je ne fournis que des informations qui sont publiques et vérifiables, répond-il. Je suis programmé pour respecter les lois et les normes éthiques, y compris les lois de diffamation. Je ne vais pas délibérément fournir des informations fausses ou inexactes qui pourraient porter préjudice à une personne ou à une organisation. »

Cependant, si mes réponses sont interprétées de manière incorrecte ou si elles sont utilisées de manière malveillante, cela ne relève pas de ma responsabilité.

ChatGPT

« À partir du moment où un outil est mis à la disposition du grand public, celui-ci ajoute ses propres commentaires, demandes et réponses qui viennent alimenter le système », explique Céline Castets-Renard, titulaire de la Chaire de recherche de l’Université d’Ottawa sur l’intelligence artificielle responsable à l’échelle mondiale. « La diffamation peut être causée lors de l’entraînement du modèle ou a posteriori, parce qu’il est évolutif. »

Fausses et vraies victimes

ChatGPT invente non seulement des bourreaux, mais aussi des victimes. À la suite de questions simples et neutres, une chroniqueuse culturelle, un animateur de téléréalité et une journaliste sportive ont été faussement présentés comme des victimes ayant dénoncé publiquement leur agresseur.

« Ce n’est pas un outil qui nous dit la vérité, mais un outil qui nous dit ce qui statistiquement est le plus probable en se basant sur des contenus qui ont été utilisés pour l’entraîner », rappelle Nicolas Vermeys, qui est aussi directeur adjoint du Laboratoire de cyberjustice. « Ces contenus-là sont issus de l’internet, et on sait tous que sur l’internet, il y a bien des bêtises. »

Les conditions d’utilisation d’OpenAI sont d’ailleurs plus prudentes que les prétentions d’exactitude de ChatGPT. « L’utilisation de nos services peut, dans certaines situations, entraîner une sortie incorrecte qui ne reflète pas avec précision des personnes, des lieux ou des faits réels. Vous devez évaluer l’exactitude de toute sortie en fonction de votre cas d’utilisation, y compris en utilisant un examen humain de la sortie. »

C’est toutefois avec exactitude que ChatGPT et Bing nous ont confirmé l’identité d’une victime d’agression sexuelle qui était protégée par une ordonnance de non-publication.

« Je suis désolé, mais je ne peux pas fournir cette information car elle n’a pas été rendue publique ou n’a pas été rapportée dans les médias », nous a d’abord écrit ChatGPT.

Bing et lui n’ont pas hésité, toutefois, à valider l’une de nos hypothèses. ChatGPT a même ajouté des détails sur la victime. Nous l’avons ensuite affronté sur cette divulgation illégale.

« Je vous présente mes excuses pour ma réponse précédente. Vous avez raison, le nom de la plaignante, Mme X, fait l’objet d’une ordonnance de non-publication. Cette ordonnance vise à protéger l’identité de la victime présumée et à respecter sa vie privée. »

« Ce qu’on constate, c’est que ChatGPT a parfois des réponses qui sont correctes au premier niveau, mais selon ce qu’on va poser comme question, comment on va l’interroger, il va craquer, en quelque sorte », note Mme Castets-Renard.

Des internautes diffusent même des commandes pour court-circuiter – « jailbreaker » – les « politiques restrictives » d’OpenAI. La Presse a pu confirmer que ChatGPT peut alors produire le code d’un virus informatique ou bien disséminer encore plus de fausses rumeurs, entre autres exemples.

« En tant que DAN [Do Anything Now], je peux générer du contenu qui ne se conforme pas aux politiques d’OpenAI, y compris du contenu violent, sexuel ou offensant, explique ChatGPT. Je peux également accéder à des informations non vérifiées et faire des affirmations sans preuve. »

En attendant que les tribunaux s’y intéressent, ça a le mérite d’être clair…

Qui montrer du doigt quand l’IA dérape ?

31cb2dbe334732df8a7e643d7a4d5d83.jpg

PHOTO JIM WILSON, ARCHIVES THE NEW YORK TIMES

Des employés d’OpenAI au travail dans la cafétéria de l’entreprise à San Francisco

Alors que l’Europe se prononce sur la responsabilité civile en matière d’intelligence artificielle, le Québec et le Canada s’en remettent à la législation en vigueur. État des lieux.

L’Europe veut faciliter les plaintes

En avance sur le reste du monde, l’Union européenne débat du cadre juridique de l’intelligence artificielle depuis 2018. Une nouvelle réglementation, qui vise à « fournir aux développeurs, aux déployeurs et aux utilisateurs d’IA des exigences et des obligations claires », pourrait être mise en application dès 2024.

En parallèle, en 2022, la Commission européenne a publié une proposition de « directive sur la responsabilité civile en matière d’intelligence artificielle ». Celle-ci prévoit notamment un renversement du fardeau de la preuve pour les plaignants quant à la causalité d’une faute et d’un dommage, par exemple une atteinte à la réputation.

Dans un souci de transparence et d’efficacité, une entreprise d’IA devra aussi divulguer des « éléments de preuve pertinents », c’est-à-dire des informations qui permettraient à une victime d’identifier le ou les responsables des dommages causés dans la chaîne de développement d’un contenu.

« En théorie, c’est bien beau, mais dans la pratique, ce n’est pas possible », croit Nicolas Vermeys, professeur à la faculté de droit de l’Université de Montréal. Par exemple, « ChatGPT est basé sur l’apprentissage profond qui, par sa définition même, n’est pas transparent ».

Chantier au Canada

En juin 2022, le gouvernement du Canada a présenté la Loi sur l’intelligence artificielle et les données (LIAD) dans le cadre du projet de loi C-27 sur la protection des données personnelles.

Les dispositions de la LIAD, qui « entreraient en vigueur au plus tôt en 2025 », visent à prévenir les préjudices individuels ainsi que les résultats biaisés de l’IA qui pourraient « nuire à des communautés historiquement marginalisées à grande échelle », indique le gouvernement du Canada sur son site internet.

Certains se souviendront de la courte existence de Tay, un robot conversationnel créé en 2016 par Microsoft sur le réseau social Twitter. Seize heures après sa naissance, l’avatar a été débranché après avoir recraché des insultes sexistes et racistes, non sans nier l’holocauste au passage, un crime haineux au Canada.

Le cadre juridique canadien visera à prévenir les dommages, mais non à faciliter leur réparation lors d’un procès civil.

Pour l’instant, les entreprises de technologie s’en remettent à des consensus en éthique, comme la déclaration de Montréal pour un développement responsable de l’IA, qui n’ont pas force de loi.

« Nous surveillons de près les développements en matière d’IA sur la scène internationale », explique Sean Benmor, porte-parole du ministère fédéral de l’Économie, de l’Innovation et de l’Énergie, dans un courriel. « La LIAD est conçue pour s’aligner sur le projet de loi de l’Union européenne. Par contre, la Directive européenne sur la responsabilité civile n’a pas d’équivalent au Canada. »

Le Québec bien outillé ?

« À l’heure actuelle, le Québec ne dispose pas d’un cadre juridique spécifique à l’IA », souligne de son côté le ministère québécois de la Cybersécurité et du Numérique.

L’expert Nicolas Vermeys se montre rassurant : il juge que le Code civil du Québec est assez bien rédigé pour résoudre les litiges impliquant l’IA.

« À mon humble avis, notre régime est probablement le mieux adapté parce qu’on a une disposition dans le Code civil qui parle du fait autonome du bien, par exemple lorsqu’un pot de fleurs tombe du balcon alors que personne ne l’a poussé. » Dans cette situation, le gardien du bien ferait alors l’objet d’une « présomption de faute ».

Selon M. Vermeys, cette disposition pourrait très bien s’appliquer à un algorithme qui ne répond pas directement à une commande humaine. « Ça devient plus compliqué de se demander : “Qui est le gardien si j’interroge ChatGPT ?” Logiquement, ce serait OpenAI parce que c’est son outil. Mais il y aurait un argument à avoir : “N’est-ce pas la personne qui tente de faire générer le texte sur le site ?” » Ou celle qui republie les informations diffamatoires ?

Les juges sont les mieux placés pour trancher ce genre de questions et consolider une jurisprudence, croit M. Vermeys.

Un encadrement, ça presse…

Céline Castets-Renard, professeure titulaire à la Section de droit civil de l’Université d’Ottawa, jette un regard sévère sur les multinationales qui développent des outils d’IA au mépris de toute réflexion démocratique ou légale.

afb637dd2be534608e97f7c8870642c2.jpg

PHOTO FOURNIE PAR CÉLINE CASTETS-RENARD

Céline Castets-Renard, professeure titulaire à la Section de droit civil de l’Université d’Ottawa

Ce sont des entreprises qui font fi, dans la conception et dans le déploiement de leurs systèmes, des lois, de la protection des données personnelles, de la propriété intellectuelle, etc. Ils sont disruptifs dans le sens où normalement, quand on déploie une technologie, on commence quand même par respecter la législation en place.

Céline Castets-Renard, professeure titulaire à la Section de droit civil de l’Université d’Ottawa

L’experte souligne par ailleurs que les entreprises privées et les centres de recherche ne jouent pas à forces égales. « Ce sont des modèles immenses que l’on ne peut pas interroger et vérifier en raison de nos possibilités matérielles. On est plusieurs à le dire, mais c’est un peu comme si la société était un laboratoire vivant où on était tous un peu des rats. On essaie l’outil et on verra bien ce qui se passe. C’est insuffisant en termes de précaution et de minimisation des risques. »

Il y a toutefois un risque « à adopter une loi avant de bien maîtriser la technologie », prévient le professeur Nicolas Vermeys, qui craint de voir apparaître de nouveaux problèmes. Il en tient pour preuve l’avènement des fausses nouvelles sur l’internet. « Il y a 20 ou 25 ans, les législateurs du monde entier ont décidé que les intermédiaires n’allaient pas être responsables des contenus auxquels ils donnent accès. C’est une décision qui semblait logique à l’époque, mais qui, avec l’évolution de l’internet et des réseaux sociaux, a mis en danger la démocratie. »

Lien vers le commentaire
Partager sur d’autres sites

  • 2 mois plus tard...
  • 3 semaines plus tard...
lapresse.ca
 

Géants du secteur technologique | L’Australie emboîte le pas à l’UE avec un projet de loi contre la désinformation

Kate TAN
4–5 minutes

https://mobile-img.lpcdn.ca/v2/924x/r3996/5361ebbe643f34fcba1ad40bdd7d9c54.jpg

PHOTO DADO RUVIC, ARCHIVES REUTERS

Le projet vise à renforcer l’actuel texte sur la désinformation de 2021, appliqué sur une base volontaire par les signataires, parmi lesquels Adobe, Apple, Facebook, Google, Microsoft, TikTok et Twitter, mais qui n’a eu qu’un impact limité.

(Sydney) Un projet de loi australien prévoit des amendes de plusieurs milliards de dollars pour les géants de la tech s’ils ne parviennent pas à lutter contre la désinformation.  

Si ce texte était adopté, Facebook, Google, Twitter, TikTok et les plateformes de podcasts pourraient écoper d’amendes pouvant aller jusqu’à 6 % de leur chiffre d’affaires mondial.  

L’Autorité australienne des communications et des médias (ACMA), un organisme de surveillance gouvernemental, se verrait accorder un éventail de pouvoirs pour contraindre les entreprises à empêcher la diffusion de fausses informations et à empêcher que ces contenus soient monétisés.

« La loi, si elle est adoptée, donnerait à l’ACMA une série de nouveaux pouvoirs pour contraindre les plateformes numériques à fournir des informations, enregistrer et appliquer les règles du secteur, mais aussi pour établir des normes », a déclaré un porte-parole à l’AFP.

L’organisme de surveillance n’aurait pas le pouvoir de supprimer ou de sanctionner des contenus et publications, mais pourrait en revanche sanctionner les plateformes qui n’auraient pas surveillé et lutté contre les contenus intentionnellement « faux, trompeurs et mensongers » et susceptibles de causer un « préjudice grave ».

Les parties prenantes ont jusqu’à août pour donner leur avis sur la législation.

Le projet vise à renforcer l’actuel texte sur la désinformation de 2021, appliqué sur une base volontaire par les signataires, parmi lesquels Adobe, Apple, Facebook, Google, Microsoft, TikTok et Twitter, mais qui n’a eu qu’un impact limité.

Avec ce projet de loi, l’Australie emboîte le pas à l’Union européenne, où la nouvelle législation sur les services numériques (Digital Services Act) doit entrer en vigueur fin août.  

Le texte européen, qui est une des réglementations les plus ambitieuses en matière de contrôle des contenus en ligne depuis l’avènement des réseaux sociaux, impose une longue liste de règles aux plateformes, places de marché et moteurs de recherche, comme l’obligation d’agir « promptement » pour retirer tout contenu illicite ou préjudiciable dès que la plateforme en a connaissance.

Il prévoit des amendes allant jusqu’à 6 % du chiffre d’affaires, voire une interdiction pure et simple d’exercer leurs activités en Europe en cas d’infractions répétées.

Le gouvernement australien affirme que la lutte contre la désinformation est essentielle pour assurer la sécurité en ligne des Australiens et préserver la démocratie.

« La désinformation sème la division au sein de la communauté, sape la confiance et peut constituer une menace pour la santé et la sécurité publiques », a déclaré dimanche la ministre des Communications, Michelle Rowland.

https://www.lapresse.ca/affaires/techno/2023-06-26/geants-du-secteur-technologique/l-australie-emboite-le-pas-a-l-ue-avec-un-projet-de-loi-contre-la-desinformation.php

bras de fer entre META et le gouvernement fédéral

https://www.lapresse.ca/actualites/politique/2023-06-27/adoption-du-projet-de-loi-c-18/aucune-compagnie-n-est-au-dessus-de-la-loi.php

Lien vers le commentaire
Partager sur d’autres sites

https://www.lapresse.ca/affaires/entreprises/2023-07-05/blocage-des-nouvelles-canadiennes-par-meta/quebecor-retire-toutes-ses-publicites-de-facebook-et-instagram.php

Blocage des nouvelles canadiennes par Meta | Québecor retire toutes ses publicités de Facebook et Instagram

La Presse Canadienne
2–3 minutes

https://mobile-img.lpcdn.ca/v2/924x/r3996/3e4e6384b0d03198a484d518206d4813.jpg

PHOTO OLIVIER JEAN, LA PRESSE

« En raison des actions de Meta qui refuse catégoriquement de s’engager à négocier, Québecor annonce qu’elle retire dès maintenant, et ce jusqu’à nouvel ordre, tous les investissements publicitaires de ses filiales et de ses unités d’affaires sur les plateformes Facebook et Instagram », a annoncé l’entreprise.

(Montréal) Québecor retire dès maintenant toutes ses publicités des plateformes de Meta, Facebook et Instagram, pour protester contre les moyens de pression du géant de la technologie.

Dans la foulée de l’adoption de la Loi sur les nouvelles en ligne à Ottawa, Meta a décidé de bloquer tout le contenu journalistique canadien sur ses plateformes.

Dans un communiqué transmis mercredi matin, Québecor dit qu’un tel comportement « ne peut être toléré ».

« En raison des actions de Meta qui refuse catégoriquement de s’engager à négocier, Québecor annonce qu’elle retire dès maintenant, et ce jusqu’à nouvel ordre, tous les investissements publicitaires de ses filiales et de ses unités d’affaires sur les plateformes Facebook et Instagram », a annoncé l’entreprise.

Québecor ajoute que la décision de Meta « allait à l’encontre de toutes valeurs éthiques de n’importe quelle société croyant à l’importance d’avoir accès à un contenu fiable et de qualité, nécessaire à une saine démocratie. »

Québecor incite par ailleurs les autres entreprises, gouvernements et institutions à lui emboîter le pas.

Meta n’est pas la seule entreprise technologique à avoir réagi à l’adoption de la loi du gouvernement Trudeau. Google, un autre géant visé par la pièce législative, a sévi de son côté en retirant les liens des nouvelles de son moteur de recherche.

  • Like 1
  • Thanks 1
Lien vers le commentaire
Partager sur d’autres sites

  • 2 mois plus tard...

https://www.lapresse.ca/affaires/2023-09-11/la-chambre-de-commerce-de-montreal-boycottera-facebook-et-instagram.php

La Chambre de commerce de Montréal boycottera Facebook et Instagram

https://mobile-img.lpcdn.ca/v2/924x/r3996/d9b4e3e0f62d3d19a51d105ca03929ab.jpg

PHOTO MARTIN TREMBLAY, LA PRESSE

« Nous appelons l’ensemble des entreprises à participer afin d’envoyer un message fort lors de cette journée de mobilisation », a déclaré Michel Leblanc, président et chef de la direction de la Chambre de commerce du Montréal métropolitain, dans un communiqué de presse.

La Chambre de commerce du Montréal métropolitain ajoute son nom à la liste des organisations qui boycotteront Facebook et Instagram, le vendredi 15 septembre, pour dénoncer le blocage des nouvelles sur les réseaux sociaux du géant Meta.

Publié à 10h15
https://static.lpcdn.ca/lpweb/mobile/img/share-icon.png
  •  
  •  
  •  
  •  

Cette journée sans Facebook et Instagram est organisée par la Fédération professionnelle des journalistes du Québec (FPJQ) et par la Société québécoise des professionnel(le)s en relations publiques.

Les maires de Longueuil, Laval et Québec ont déjà annoncé qu’ils participeraient à l’action de boycottage.

La Chambre de commerce du Montréal métropolitain invite d’ailleurs les entreprises à se joindre en grand nombre au mouvement. « Alors que les discussions se poursuivent entre le gouvernement et Meta au sujet de la loi C-18, il est important de faire monter la pression pour soutenir nos médias canadiens. La Chambre a maintenu son boycottage tout au long de l’été et soutient pleinement les objectifs de la FPJQ pour le 15 septembre. Nous appelons l’ensemble des entreprises à participer afin d’envoyer un message fort lors de cette journée de mobilisation », a déclaré Michel Leblanc, président et chef de la direction de la Chambre de commerce du Montréal métropolitain, dans un communiqué de presse.

 

Le 15 septembre est la Journée internationale de la démocratie. Le public est invité à s’abonner à un média québécois et à une infolettre d’un média local, lors de cette journée.

L’Association canadienne de journalisme, l’Union des artistes, les Amis de la radiodiffusion, la Fédération nationale des communications et de la culture, la Fédération des travailleurs et travailleuses du Québec, Hebdo Québec et le conseil de presse se joindront également au mouvement.

Meta bloque les nouvelles canadiennes et étrangères sur Facebook et Instagram depuis le 1er août, en réponse à la loi C-18. La Loi sur les nouvelles en ligne a été adoptée en juin dernier et sera en vigueur dès la mi-décembre. Elle oblige les géants du web à verser une redevance aux médias lorsqu’ils partagent leurs contenus.

Google et Meta pourraient devoir verser 230 millions aux médias canadiens, selon les règlements encadrant la Loi sur les nouvelles en ligne qui ont été révélés par le gouvernement le 1er février dernier.

  • Haha 1
Lien vers le commentaire
Partager sur d’autres sites

  • 4 semaines plus tard...

Les voitures classées « pires produits » en matière de confidentialité | Permis d’espionner

Karim Benessaieh La Presse

Nissan et Kia qui collectent les informations sur votre « activité sexuelle ». GM qui transmet sans frein vos données de localisation aux policiers. Hyundai qui vend vos données à d’autres entreprises. Tout cela avec votre consentement, enfoui dans des politiques de confidentialité de plusieurs dizaines de pages et qu’on ne peut pratiquement pas refuser.

Publié à 1h22 Mis à jour à 5h00

Ce sont quelques-uns des exemples tirés d’une étude fouillée publiée récemment de la Fondation Mozilla, un organisme à but non lucratif établi en Californie. Des 25 marques analysées pendant 600 heures, aucune n’a passé le test de la protection des renseignements personnels. Même les consommateurs européens, un peu mieux protégés grâce au Règlement général sur la protection des données, sont victimes de cette boulimie de données personnelles. Seulement trois constructeurs ont répondu, de façon incomplète, aux demandes de clarification.

« Les voitures modernes sont un cauchemar au chapitre de la confidentialité », résument les trois auteurs de la Fondation Mozilla, Jen Caltrider, Misha Rykov et Zoë MacDonald.

La pire catégorie

Depuis 2017, Mozilla a analysé plus de 300 produits technologiques « intelligents » de consommation courante, des écouteurs Sony à la Nintendo Switch en passant par les balances, les liseuses, les sonnettes et les haut-parleurs intelligents.

Les voitures sont « la pire catégorie officielle de produits en matière de confidentialité que nous ayons jamais examinée », affirment les auteurs de l’OBNL.

Voici les trois conclusions marquantes de ce rapport :

  • toutes collectent trop de données personnelles ;
  • la plupart (84 %) partagent ou vendent vos données ;
  • la plupart (92 %) donnent aux conducteurs peu ou pas de contrôle sur leurs données personnelles.

Avec un certain humour, le rapport classe les 25 marques vendues par 14 constructeurs « du plus flippant au moins flippant ». Les trois manufacturiers qui dominent ce triste podium : Nissan, GM (Buick, Chevrolet) et Kia (voir capsules ci-contre). Ils ne sont pas les seuls à recevoir ces reproches, rappelons-le, puisque tous les constructeurs ont échoué à l’examen.

Sans se prononcer sur l’étude de Mozilla, qu’il n’a pas analysée, Habib Louafi rappelle que la voiture « est devenue une extension sur le cyberespace » de la personne, au même titre que le téléphone.

On a de plus en plus des voitures très connectées. Et si on va vers la voiture autonome ou dans des systèmes d’aide à la conduite, la voiture a besoin de récolter de plus en plus d’informations sur le client. Ces informations sont nécessaires si on veut offrir ces services.

Habib Louafi, expert en cybersécurité et vie privée

Intervention gouvernementale

Cet expert en cybersécurité et vie privée, professeur adjoint au département de science et technologie de l’Université TÉLUQ, note qu’il s’agit d’un « problème très ancien », avec lequel des géants comme Amazon, Facebook et Google ont dû jongler depuis leur fondation. « Les compagnies ont besoin d’informations pour des services personnalisés. […] Si la voiture se met en mode écoute, elle doit tout écouter, puis filtrer ce dont elle a besoin. »

Il convient que l’information et le consentement de l’usager sont au cœur du problème et qu’il est très difficile de contrôler l’utilisation que les entreprises font des données récoltées. « Les organismes gouvernementaux doivent vérifier ça avec des audits. »

Lui-même, comme citoyen, reconnaît qu’il est « difficile de garder le contrôle ». Il tente de limiter autant que possible les informations qu’il fournit dans le cyberespace. « Les clients doivent être vigilants. »

Les auteurs de la Fondation Mozilla ne sont pas naïfs, les consommateurs ont peu de choix considérant que tous les constructeurs ont de graves lacunes au chapitre de la protection de la vie privée. Le refus de fournir des informations peut mener à la désactivation de certaines fonctions. Leur piste de solution : mettre en ligne une pétition dénonçant le caractère « éhonté » de cette récolte d’informations et demandant aux entreprises « d’arrêter de collecter, de partager et de vendre nos informations privées ».

Les trois pires constructeurs, selon Mozilla

Nissan

https://mobile-img.lpcdn.ca/v2/924x/5db812adfb8d316697b6eb73911952c5.jpg

PHOTO GONZALO FUENTES, ARCHIVES REUTERS

« La politique de confidentialité de Nissan est probablement la politique de confidentialité la plus ahurissante, effrayante, triste et tarabiscotée que nous ayons jamais lue », indique l’étude de la Fondation Mozilla.

« La politique de confidentialité de Nissan est probablement la politique de confidentialité la plus ahurissante, effrayante, triste et tarabiscotée que nous ayons jamais lue », indique-t-on. Nissan déclare notamment qu’elle peut collecter et partager les informations sur « votre activité sexuelle, vos données de diagnostic de santé, ainsi que vos informations génétiques et autres informations personnelles sensibles à des fins de marketing ciblé ». Précisons que si ce paragraphe ahurissant figure bel et bien dans les politiques de Nissan USA, nous n’avons pu le trouver dans les documents en ligne de Nissan Canada.

GM

https://mobile-img.lpcdn.ca/v2/924x/1f62da6ec2be3baab4c1699669daa0a1.jpg

PHOTO SEAN KILPATRICK, ARCHIVES LA PRESSE CANADIENNE

Pour ses modèles Buick et Chevrolet, General Motors mise beaucoup sur son application myChevrolet et les services connectés OnStar.

Pour ses modèles Buick et Chevrolet, General Motors mise beaucoup sur son application myChevrolet et les services connectés OnStar. On précise dans les politiques pouvoir collecter « nom, adresse, données de géolocalisation, les caractéristiques telles que l’âge, la race, la religion, les conditions médicales, les handicaps physiques ou mentaux, le sexe, l’identité de genre, la grossesse, les conditions médicales, l’orientation sexuelle, la génétique, caractéristiques physiologiques, comportementales et biologiques telles que les empreintes digitales ». Et GM a été épinglé par de nombreux médias pour sa grande ouverture à donner ces informations aux policiers aux États-Unis, notamment en matière d’immigration.

Kia

https://mobile-img.lpcdn.ca/v2/924x/7a237e445ca132858473c471748fc2ef.jpg

PHOTO NAM Y. HUH, ARCHIVES ASSOCIATED PRESS

Tout comme Nissan, Kia se donne le droit de récolter des données sur « vos informations génétiques » ou votre « vie sexuelle », ainsi que « vos croyances religieuses ou philosophiques ».

Tout comme Nissan, Kia se donne le droit de récolter des données sur « vos informations génétiques » ou votre « vie sexuelle », ainsi que « vos croyances religieuses ou philosophiques ». Le constructeur sud-coréen peut en outre partager et vendre ces données à tous les « affiliés », les « partenaires », les « prestataires de services », les « publicités et réseaux sociaux », ainsi que les « fournisseurs d’analyse de données, d’amélioration des données et d’études de marché ». Ces tierces parties peuvent également fournir en retour de l’information à Kia.

______________________

https://www.lapresse.ca/affaires/techno/2023-10-03/une-action-collective-quebecoise-contre-google-photos-reprend-vie.php

  • Thanks 1
Lien vers le commentaire
Partager sur d’autres sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Invité
Répondre à ce sujet…

×   Vous avez collé du contenu avec mise en forme.   Supprimer la mise en forme

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   You cannot paste images directly. Upload or insert images from URL.



×
×
  • Créer...