“Nous espérons vraiment lancer la conversation sur les règles de base de l’utilisation de l’IA, comment nous assurer qu’elle est utilisée pour des choses que nous voulons et non pour d’autres, et aider la société à rattraper son retard”. - Wyatt Tessari L’Allié, fondateur et directeur général de GSIA Canada
Wyatt Tessari L’Allié, fondateur et directeur exécutif d’AIGS Canada, a participé à l’émission Kelly Cutrara Show sur Global News Radio AM640 pour discuter des développements actuels en matière d’intelligence artificielle, y compris une application d’intelligence artificielle qui peut détecter si les employés qui appellent au travail pour dire qu’ils sont malades le sont réellement.
Transcription complète de l’interview:
Animateur: L’IA pourrait perturber vos plans, car un groupe de scientifiques, en Inde je crois, travaille actuellement sur l’IA qui détecterait si vous êtes malade ou non. Wyatt Tessari de GSIA Canada, cofondateur et autorité en matière de gouvernance et de sécurité de l’IA, est là pour en parler. Bienvenue dans l’émission, c’est un plaisir de vous recevoir, Wyatt.
Wyatt: Merci beaucoup, merci de m’avoir invité.
Animateur: Parlez-nous de ceci, c’était à l’origine (toux) - allez savoir, ma voix est légitimement en train de craquer - c’est légitimement mis en place pour savoir si vous êtes malade afin que vous n’ayez pas à vous rendre dans les bureaux des médecins, d’accord. Mais les entreprises pourraient l’utiliser d’une autre manière. Expliquez-nous comment l’IA fonctionnerait.
Wyatt: En gros, ils essaient de reconnaître les caractéristiques d’une personne malade. Ils écoutent des centaines de personnes malades et d’autres qui ne le sont pas, et ils sont en mesure d’entraîner l’IA à reconnaître, par exemple, si cette personne est malade ou non. C’est encore très expérimental. Mais cela illustre bien le fait que ces systèmes s’améliorent sans cesse et que c’est le genre de choses que l’on peut faire avec l’IA.
Animateur: J’y pensais, vous savez, une des choses que j’ai entendues, c’est qu’ils vont devoir - une partie de l’étude est - que vous devez lire une fable d’Esope. Il faudrait donc que votre employeur, si vous voulez l’utiliser au travail, enregistre votre voix en temps normal en train de lire cette fable, et ensuite, lorsque vous vous rendez au travail et que vous voulez prendre un congé de maladie, vous devez la relire.
Wyatt: Exactement. C’est pourquoi elle est loin d’être prête pour le grand public. Il y a encore beaucoup d’étapes à franchir, mais la reconnaissance vocale s’est améliorée très rapidement. Nous voyons déjà, par exemple dans le domaine de la musique, qu’il est possible d’écrire des paroles et de les faire chanter par la voix générée par l’IA de votre artiste préféré, comme s’il les chantait pour de vrai. La technologie de reconnaissance et d’imitation vocales devient vraiment très performante. Dans le cas particulier des notes de maladie, elle n’est probablement pas encore au point. Mais le propre de l’IA, et de la technologie en général, c’est qu’elle s’améliore de jour en jour. Et ce qui vient peut être beaucoup plus performant que ce dont nous disposons actuellement.
Animateur: L’IA peut-elle être piratée ? Je veux dire, quel est le degré d’avancement du système en ce qui concerne les pirates informatiques?
Wyatt: C’est un point très intéressant car les systèmes d’IA peuvent être utilisés dans les deux sens. Par exemple, si vous étiez un employé rusé, vous pourriez entraîner un système d’IA à parler comme vous et utiliser ce système d’IA pour répondre à l’appel du test. Vous pourriez donc essayer de tromper l’autre IA en utilisant l’IA.
Animateur: Ce serait donc la bataille de l’IA ? Celle qui est la plus intelligente.
Wyatt: Exactement, oui. L’IA peut être utilisée pour tant de choses, et ce n’est qu’un petit aspect de la situation globale, qui est de savoir ce qu’il advient des congés de maladie et comment les gérer. Ce qui nous préoccupe, de notre côté, c’est de savoir quel genre de monde nous voulons créer avec ces technologies. Parce qu’il est évident qu’elles auront un impact non seulement sur les congés de maladie, mais aussi sur la situation de l’emploi, sur la démocratie et sur la désinformation - le système peut être utilisé de nombreuses façons, bonnes ou mauvaises, et parce qu’elles sont développées si rapidement, nous ne sommes pas prêts pour ce qui nous attend dans les années à venir. Nous espérons vraiment lancer la conversation sur les règles de base de l’utilisation de l’IA, sur la manière de s’assurer qu’elle est utilisée pour les choses que nous voulons et pas pour d’autres, et aider la société à rattraper son retard et à anticiper ce qui va arriver.
Animateur: Plus tôt cette semaine, j’ai parlé à Carmi Levy, un expert en technologie, d’une personne qui demandait à l’IA de mettre fin à l’humanité et de s’attaquer à ce problème. Elle demandait à d’autres programmes d’IA de l’aider. Je n’ai pas été trop loin parce que nous sommes toujours là, mais j’ai demandé si nous ne devrions pas envisager d’appliquer les trois lois de la robotique d’Isaac Asimov. Elles sont les suivantes : un robot ne peut blesser un être humain ou, par son inaction, permettre qu’un être humain soit blessé ; un robot doit obéir aux ordres qui lui sont donnés par des êtres humains, sauf si ces ordres entrent en conflit avec la première loi ; un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi. Ces principes sont-ils intégrés dans les systèmes d’IA et devraient-ils être imposés par la loi?
Wyatt: Je pense que c’est un bon exemple des choses dont on veut que les systèmes d’IA soient conscients et qu’ils agissent en conséquence. Le défi actuel est que les systèmes d’IA les plus avancés sont vraiment des boîtes noires. Ce qu’ils font, par exemple dans le cas du célèbre ChatGPT, c’est qu’ils l’ont entraîné avec toutes les données d’Internet et lui ont demandé de prédire le mot suivant. Il dispose donc d’une sorte de carte interne du monde grâce à ce qu’il a appris sur Internet, mais nous ne savons pas ce qu’il a appris et nous ne savons pas comment il pense. Il peut rédiger des essais impressionnants et faire tout un tas de choses sophistiquées, mais nous ne savons pas exactement comment il s’y prend. C’est pourquoi, d’une part, nous devons nous assurer que nous avons des règles ; nous savons quelles règles nous voulons qu’il suive. Mais le deuxième volet est celui de la sécurité technique : comment s’assurer que ces systèmes comprennent ces règles comme nous le voulons et qu’ils ne vont pas trouver des moyens très intelligents de les contourner?
Animateur: D’accord, beaucoup de questions restent sans réponse, mais nous y reviendrons. Wyatt, merci beaucoup de nous avoir rejoints, j’apprécie vraiment le temps que vous nous avez consacré aujourd’hui.
Wyatt: Merci, j’apprécie beaucoup.
Animateur: Bonne journée. Wyatt Tessari L’Allié est avec GSIA Canada, fondateur et autorité dédié à la gouvernance et sécurité de l’IA.