Éditorial

Auteur(e)

Jean-Benoît Nadeau

Chroniqueur au Devoir et collaborateur au magazine L’actualité, Jean-Benoît Nadeau a publié plus de 1 000 reportages et chroniques, remporté deux douzaines de prix journalistiques et littéraires, signé huit livres, vécu dans trois pays, élevé deux enfants et marié une seule femme.

L’intelligence artificielle… intelligemment

Avec l’apparition soudaine de ChatGPT et le lancement d’une course aux systèmes avancés d’intelligence artificielle (IA), l’humanité approche un point de non-retour où l’intelligence robotique pourrait se substituer à l’humain, avec les dangers de dérives, voire des catastrophes que cela pourrait entraîner. Il est déjà minuit moins cinq et il est plus que temps que les législateurs – québécois, canadiens et d’ailleurs – prennent en main le dossier de l’intelligence artificielle pour la baliser. Grouillez-vous!



Il ne faut surtout pas répéter l’erreur gravissime d’avoir attendu 25 ans pour commencer à imposer des règles dans le cyberespace. Les dérives psychologiques et démocratiques que nous vivons pour avoir laissé faire Facebook, Twitter et autres TikTok ne sont que de la petite bière en regard de ce qui se trame avec les systèmes avancés d’IA.

Les législateurs n’ont pas à se casser la tête. Il y a deux mois, les 1 124 plus grands spécialistes de l’informatique ont déjà pris position et signé une pétition lancée par l’institut américain Future of Life afin de demander un moratoire et proposer des pistes de réglementation. Parmi les signataires, on retrouve la grande sommité montréalaise Yoshua Bengio et quelques milliardaires, dont Elon Musk (Tesla, Twitter) et Steve Wozniak (Apple).

Les dérives psychologiques et démocratiques que nous vivons pour avoir laissé faire Facebook, Twitter et autres TikTok ne sont que de la petite bière en regard de ce qui se trame avec les systèmes avancés d’IA. Photo: Depositphotos

La quatrième révolution industrielle

On ne peut pas être pour ou contre l’intelligence artificielle. C’est impossible. Depuis l’avènement de la calculette, du traitement de texte et des premiers jeux vidéo, l’IA fait partie de nos vies. Le web et internet n’auront été qu’un prélude de cette quatrième révolution industrielle.

L’intelligence artificielle, on ne s’en passerait plus. Votre fureteur Google ou Bing, c’est de l’intelligence artificielle. Le correcteur Antidote, c’est de l’intelligence artificielle. On demande aux algorithmes de prédire la demande d’électricité, la circulation, de trier les appels au service à la clientèle. On leur demandera bientôt de faire de l’aide au diagnostic en radiologie. Pour régler leur pénurie de main-d’œuvre, les Japonais ont même développé des robots aides-soignants.

Toutefois, ce qui se passe depuis l’automne 2022 avec ChatGPT est d’un autre ordre. On voit poindre une intelligence artificielle surpuissante, relationnelle, capable d’impressionner par des réponses intelligentes – ou du moins qui en ont l’air. Au même moment, on voit apparaître des systèmes d’hypertrucage absolument bluffants, et d’autres systèmes capables de créer des œuvres d’art. La demi-douzaine de grands laboratoires d’IA sont désormais lancés dans une course effrénée vers des systèmes toujours plus puissants et complexes – à tel point que leurs créateurs n’en comprennent même pas le fonctionnement.

Dans chaque secteur d’activité, l’impact sera énorme, rarement catastrophique, mais profond. En santé, en éducation, dans tout et partout.

Et c’est pourquoi les plus grandes sommités demandent que les grands laboratoires d’IA soient soumis à un moratoire de six mois – volontaire, sinon imposé par les pouvoirs publics –, le temps de développer un cadre éthique et de gouvernance.

Avec ChatGPT, on voit poindre une intelligence artificielle surpuissante, relationnelle, capable d’impressionner par des réponses intelligentes – ou du moins qui en ont l’air. Photo: Depositphotos

Le Québec pionnier

À cet égard, le Québec et le Canada font plutôt bonne figure même s’il reste encore beaucoup à faire. Dans le cadre de la nouvelle loi québécoise sur la protection des renseignements personnels entrée en vigueur en septembre 2022 (loi 25), la Commission d’accès à l’information du Québec a déjà eu à se prononcer sur la légalité de certains procédés d’intelligence artificielle. C’est un pouvoir que le Québec s’est donné – une première en Amérique du Nord.

En juin dernier, le gouvernement canadien a présenté en première lecture le projet de loi C-27 pour une Charte canadienne du numérique qui créerait trois lois: la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données, et la Loi sur l’intelligence artificielle et les données (LIAD).

Cette dernière prévoit une série de dispositions pour atténuer les risques de préjudices et de préjugés, et aussi des interdictions pénales et des sanctions. La LIAD, si elle était en vigueur, créerait même un poste de Commissaire à l’intelligence artificielle et aux données.

Ces deux lois – loi 25 au Québec et LIAD au fédéral – comportent cependant une limite évidente: elles traitent de l’IA dans le contexte de la protection des renseignements personnels. Or, on est carrément ailleurs avec des ChatGPT ou les systèmes d’hypertrucage capables de fabriquer de la fausse nouvelle ou de faux discours de manière confondante. L’IA se décuple sous nos yeux à des niveaux qui étaient encore de la science-fiction il y a un an.

Rappelons pour mémoire que la loi 25 du Québec, qui a pris force de loi en septembre 2022, mettait à jour une loi sur la protection des renseignements personnels qui datait de 1983 – à l’époque du fax! Le danger serait donc de se contenter de lois caduques dès leur conception. Il est donc extrêmement important que le législateur prenne le taureau par les cornes rapidement.

La voie est tracée

Les législateurs n’ont pas à réinventer la roue: les spécialistes de l’intelligence artificielle qui ont réfléchi au problème de la gouvernance ont des idées qui tiennent la route. Il suffit de lire la proposition réglementaire en annexe de la pétition de l’institut Future of Life pour se faire une idée assez claire des étapes à suivre. Cela se résume en sept points:

  1. Imposer des vérifications et des certifications robustes par des tiers.
  2. Réglementer l’accès à la puissance de calcul.
  3. Créer des agences nationales d’IA dotées de pouvoirs.
  4. Établir la responsabilité pour les dommages causés par l’IA.
  5. Introduire des mesures pour prévenir et suivre les fuites de modèles d’IA.
  6. Accroître le financement de la recherche technique sur la sécurité de l’IA.
  7. Élaborer des normes pour l’identification et la gestion des contenus et recommandations générés par l’IA.

Mais, dira-t-on, les gouvernements peuvent-ils réellement espérer faire plier de puissantes multinationales technologiques qui refusent toute réglementation depuis des lustres?

La clé réside dans le point 2 sur la limitation de la puissance de calculs. Les systèmes avancés d’IA, pour fonctionner adéquatement, doivent être «entraînés» par des milliers d’ordinateurs superpuissants sur de longs mois. Or, les plus gros fournisseurs de ces machines sont… les gouvernements! Leurs diverses agences mettent leur puissance de calcul à la disposition du secteur des technologies de l’information précisément dans le but de soutenir l’industrie! Il serait donc relativement simple pour les gouvernements d’encadrer en partie le développement de l’IA en exigeant que les entreprises qui souhaitent accéder à ces super ordinateurs se conforment à certaines règles concernant l’usage de ces technologies et leur finalité.

Les gouvernements ont la capacité d’imposer des règles et des cadres, ils le font pour encadrer par exemple la recherche, le développement et la mise en vente de médicaments. Ils réglementent d’autres types d’industrie et il n’y a aucune raison qu’ils ne puissent exercer un contrôle sur les pratiques de l’industrie liées à l’IA. Évidemment, une telle opération ne se ferait pas en criant ciseau. Il semble évident que les premières étapes d’une gouvernance seraient d’installer rapidement quelques feux rouges et limites de vitesse. Par exemple, l’obligation d’informer les utilisateurs qu’ils sont en interaction avec un robot. Ou celle d’offrir un recours humain aux personnes affectées par une décision prise par un robot. Ou l’obligation de soumettre l’intelligence artificielle aux lois existantes. (On ne le dit pas suffisamment, mais ce qui assure le fonctionnement de ChatGPT, c’est la contrefaçon à l’échelle industrielle de la propriété intellectuelle pourtant protégée par la Loi sur le droit d’auteur.)

Grouillez-vous!

Il est donc urgent que les gouvernements prennent les choses en main.

Évidemment, de très gros lobbys industriels refuseront de se faire dire quoi faire, mais il s’agit ici de ne pas se faire embarquer. Après tout, l’extrême concentration de cette industrie est un avantage et un inconvénient. Certes, le législateur s’oppose à des intérêts financiers colossaux – mais il sait exactement où ça se passe. Bien sûr, les centres de recherche et les entreprises qui fricotent dans l’IA se comptent par milliers: mais tout ce beau monde dépend lourdement des subventions et doit se soumettre de toute façon à des procédures réglementaires. La contrainte ne serait pas si différente de celle qui balise l’industrie pharmaceutique et les biotechnologies.

On sait depuis la pandémie que les gouvernements démocratiques sont parfaitement capables d’agir de manière autoritaire devant une menace appréhendée. Et les gouvernements, qui soutiennent toute la filière dans le but de développer les futures étoiles de demain, tiennent en réalité le gros bout du bâton.

En tant que Québécois, nous avons de la chance d’avoir une très solide base locale en IA et deux gouvernements, à Québec et à Ottawa, qui ont déjà fait un bout de chemin dans ces réflexions. Ce n’est surtout pas le moment de s’asseoir sur ses lauriers. D’autant que c’est un Montréalais, Yoshua Bengio, qui est l’un des trois parrains de l’apprentissage profond, technique qui constitue le fondement même des nouveaux systèmes avancés d’IA. Dès 2018, Yoshua Bengio avait lancé la Déclaration de Montréal pour un développement responsable de l’IA! Alors si Yoshua Bengio et Elon Musk disent la même chose, c’est l’heure de foncer.

 

Éditorial

Auteur(e)

Jean-Benoît Nadeau

Chroniqueur au Devoir et collaborateur au magazine L’actualité, Jean-Benoît Nadeau a publié plus de 1 000 reportages et chroniques, remporté deux douzaines de prix journalistiques et littéraires, signé huit livres, vécu dans trois pays, élevé deux enfants et marié une seule femme.