Intro à l'IA
Émission spéciale : l'intelligence artificielle décodée - RDI (vidéo en français, 2 heures)
“L’intelligence artificielle constitue une véritable révolution qui pourrait changer notre monde en profondeur. Pour le meilleur ou pour le pire? Patrice Roy pose la question dans L’intelligence artificielle décodée, une émission spéciale de deux heures diffusée en présence du public en direct de la Maison de Radio-Canada.”
Les experts en IA ont de plus en plus peur de ce qu'ils créent - Vox (article en anglais, 18 minutes)
“Pendant longtemps, la sécurité de l'IA a été confrontée à la difficulté d'être un domaine de recherche sur un problème lointain, ce qui explique que seul un petit nombre de chercheurs essayait de comprendre comment la rendre sûre. Aujourd'hui, le problème est inverse : le défi est là, et il n'est pas certain que nous le résoudrons à temps.”
Un guide exécutif sur l'intelligence artificielle générale (IAG) - McKinsey & Company (article en anglais, 15 minutes)
“Même une faible probabilité de parvenir à l'IAG au cours de la prochaine décennie justifie que l'on s'intéresse aux développements dans ce domaine, étant donné le point d'inflexion potentiellement dramatique que l’IAG pourrait apporter à la société”
La révolution de l'IA : La route vers la superintelligence - Wait But Why (article en anglais, 35 minutes)
“Il y a trois raisons pour lesquelles beaucoup de gens ne comprennent pas le terme 'IA':
- Nous associons l'IA aux films.
- L'IA est un vaste sujet.
- Nous utilisons l'IA en permanence dans notre vie quotidienne, mais nous ne nous rendons souvent pas compte qu'il s'agit d'IA.
Il faut donc clarifier les choses.”
L’intelligence artificiellle - Our World in Data (page de ressources, comprenant plusieurs articles de longueur moyenne et une gamme de diagrammes, en anglais)
“La manière dont des systèmes d'IA aussi puissants sont construits et utilisés sera très importante pour l'avenir de notre monde et de nos propres vies. Toutes les technologies ont des conséquences positives et négatives, mais dans le cas de l'IA, l'éventail de ces conséquences est extraordinairement large : la technologie a un immense potentiel pour le bien, mais elle s'accompagne aussi d'inconvénients importants et de risques élevés.”
Vous connaissez de bonnes ressources francophones sur le sujet? SVP nous les partager.
Les domaines d’éthique et de sécurité
L'éthique de l'IA et la sécurité de l'IA sont deux aspects interconnectés du développement et du déploiement responsables des systèmes d'IA.
L'éthique de l'IA se concentre sur les principes moraux et les lignes directrices qui régissent la conception, la mise en œuvre et l'impact de l'IA sur la société, en abordant des questions telles que l'équité, la transparence, la responsabilité et la protection de la vie privée. La sécurité de l'IA, quant à elle, concerne les aspects techniques du développement de systèmes d'IA robustes, fiables et sûrs, dans le but de prévenir les conséquences involontaires et les comportements préjudiciables.
Bien que ces deux domaines puissent sembler distincts, les efforts en matière d'éthique et de sécurité de l'IA peuvent se renforcer mutuellement. En garantissant que les systèmes d'IA s'alignent sur les valeurs humaines, les considérations éthiques aident à guider le développement de systèmes d'IA sûrs, auxquels les utilisateurs peuvent faire confiance et qu'ils peuvent comprendre. Dans le même temps, les avancées en matière de sécurité de l'IA peuvent contribuer à éviter les accidents et les utilisations abusives qui violeraient les droits humains fondamentaux. En résumé, la prise en compte conjointe de l'éthique et de la sécurité de l'IA crée une base solide pour le développement et le déploiement responsables des technologies de l'IA.
Plus en profondeur: Le développement de l'IA avancée
Par Anson Ho
Le passé, le présent et l'avenir de l'IA
L'évolution de l'intelligence artificielle (IA) a été véritablement stupéfiante. En 2012, le domaine de l'apprentissage profond (Deep Learning) commençait à peine à prendre son essor, et les systèmes d'IA avaient du mal à accomplir des tâches relativement simples comme la reconnaissance d'objets. Aujourd'hui, la situation est radicalement différente : les systèmes d'IA peuvent surpasser la plupart des élèves du secondaire dans un large éventail de matières allant de la biologie à l'économie, ils ont réalisé des progrès de pointe dans la résolution du pliage des protéines, ils sont surhumains à des jeux comme les échecs et le go, et ils sont sur le point d'avoir un impact sur de larges fractions de l'économie.
Lire la suiteIl est clair que les progrès réalisés au cours de la dernière décennie ont été extrêmement rapides et, en fait, il y a des raisons de s'attendre à ce que ces tendances se poursuivent. Les trois principaux ingrédients de l'IA - le calcul, les données et les algorithmes - ont connu une croissance exponentielle qui pourrait se poursuivre pendant un certain temps. Par exemple, entre 2010 et 2022, la quantité totale de calculs de formation a été multipliée par un facteur d'environ 100 millions, soit plusieurs ordres de grandeur de plus que la croissance due à la loi de Moore. Les investissements mondiaux dans l'IA augmentent de manière significative et les preuves empiriques de l'apprentissage profond ne montrent pas encore de signes forts de diminution des rendements à l'échelle.
Bien qu'il soit très difficile de prédire l'avenir, nos meilleurs modèles et prévisions économiques laissent entrevoir la possibilité d'un impact considérable sur la société au cours des prochaines décennies.
Les grands modèles linguistiques tels que le GPT-4 pourraient avoir un impact sur au moins 10 % des tâches de 80 % de la main-d'œuvre américaine et pourraient entraîner des augmentations considérables du taux de croissance économique, ainsi que le développement de systèmes d'IA plus performants que les humains pour un large éventail de tâches. S'ils ne sont pas développés en toute sécurité, ces systèmes pourraient entraîner des risques catastrophiques, tels que l'utilisation de l'IA dans des armes et des guerres autonomes, l'utilisation de systèmes d'IA pour développer des armes ou contrôler des systèmes à fort enjeu, et la perte de contrôle des systèmes d'IA, menaçant ainsi l'humanité elle-même.
Risques liés à l'IA avancée
Le potentiel de progrès rapide et d'impacts massifs soulève de sérieuses inquiétudes, allant de l'augmentation drastique des inégalités à l'utilisation d'une IA très avancée dans la guerre. Chez GSIA Canada, nous nous intéressons à trois grandes catégories de risques liés aux systèmes d'IA avancés, qui peuvent causer des dommages importants à l'échelle nationale et mondiale.
Risques d'utilisation malveillante: Les systèmes d'IA deviennent rapidement plus puissants et plus faciles à utiliser. S'ils sont développés en toute sécurité, ils peuvent apporter d'énormes avantages à la société, mais un manquement à cette règle pourrait accroître massivement la capacité de destruction des acteurs malveillants. À titre d'exemple concret, des systèmes d'IA ont été utilisés pour concevoir des armes chimiques dont la toxicité prévue est plus mortelle que celle de toute autre arme connue. Bien qu'il s'agisse d'une preuve de concept réalisée par des scientifiques bien intentionnés, il faut s'attendre à ce que de tels risques se multiplient dans les années à venir, à mesure que les systèmes d'IA seront plus largement accessibles et intégrés dans la société. Par exemple, des armes autonomes ont déjà été utilisées sur le champ de bataille et pourraient être utilisées pour cibler des opposants politiques, et les systèmes d'IA pourraient être utilisés pour écrire le code de cyberattaques massives.
Risques de désalignement: Les risques liés à l'IA vont malheureusement bien au-delà des risques liés aux acteurs malveillants. Il est très difficile de s'assurer que les systèmes d'IA soient "alignés" avec les valeurs humaines et qu'ils fassent ce que leurs concepteurs veulent qu'ils fassent. Par exemple, les systèmes d'IA peuvent uniquement faire preuve d'un bon comportement lorsqu'ils sont étroitement surveillés pendant la formation, mais ce comportement peut ne pas se généraliser une fois qu'ils sont déployés dans le monde réel. Cela peut permettre à des systèmes d'IA non alignés de surmonter les tentatives de précautions de sécurité - un problème extrêmement grave si des systèmes d'IA hautement intelligents et autonomes sont déployés dans le monde réel ou dans des scénarios à fort enjeu.
Risques structurels: Les risques d'utilisation abusive et de désalignement s'inscrivent dans un écosystème de risques plus large. Par exemple, les pressions concurrentielles entre les acteurs qui construisent des systèmes d'IA avancés pourraient conduire à rogner sur la sécurité, avec peut-être des mesures de sécurité affaiblies et des risques accrus d'utilisation malveillante. En outre, le déploiement à grande échelle des systèmes d'IA pourrait amplifier considérablement les inégalités, et des systèmes mal alignés pourraient entraîner une dérive des valeurs sociétales ou menacer les institutions existantes. Aujourd'hui, les systèmes peuvent déjà surpasser de nombreux humains dans un large éventail de tâches, et ils s'améliorent de minute en minute. Nos institutions et notre société sont-elles vraiment capables de s'adapter assez rapidement à ces changements?
Ces risques peuvent se propager et avoir un impact extrêmement rapide sur la société - ChatGPT, par exemple, a atteint 100 millions d'utilisateurs actifs mensuels dans les deux mois qui ont suivi son déploiement, ce qui en fait l'application grand public à la croissance la plus rapide de tous les temps. Les systèmes d'IA sont susceptibles de s'intégrer de plus en plus dans la société, et si nous ne prenons pas de mesures aujourd'hui, ou si nous ne prenons pas les bonnes mesures, cela pourrait entraîner des problèmes majeurs pour la société à l'avenir.
L'urgence d'agir
L'impact de l'IA suscite de plus en plus d'inquiétudes, et pas seulement en ce qui concerne les risques mineurs. Par exemple, selon une enquête menée auprès de 738 chercheurs lors de NeurIPS et d'ICML, deux grandes conférences sur l'apprentissage automatique, 48 % des personnes interrogées pensent que l'IA peut avoir 10 % de "conséquences extrêmement négatives (par exemple, l'extinction de l'humanité)". Dans le même temps, 69 % des personnes interrogées estiment que la sécurité de l'IA devrait être une priorité "plus" ou "beaucoup plus" qu'elle ne l'est actuellement.
Ces préoccupations ne se limitent pas non plus au domaine de l'apprentissage automatique : une récente enquête de l'université Monmouth auprès du public américain a révélé que 56 % des personnes interrogées craignaient que les machines artificiellement intelligentes nuisent à la qualité de vie générale des humains, et que 55 % d'entre elles étaient au moins quelque peu préoccupées par le fait que l'IA pourrait un jour constituer un risque pour l'existence de la race humaine.
Récemment, une lettre ouverte du Future of Life Institute appelant à une pause dans les expériences d'IA à grande échelle a reçu plus de 25,000 signataires, dont des chercheurs en IA de premier plan tels que Yoshua Bengio et Stuart Russell.
Que devons-nous faire pour résoudre ces problèmes ? Nous devons adopter des stratégies capables de faire face au rythme du changement, ainsi que des interventions techniques et sociales qui nous aident à relever les défis d'aujourd'hui et qui ont la capacité de s'adapter aux systèmes futurs. Il pourrait s'agir, par exemple, de réglementer les organisations pour s'assurer qu'elles procèdent à un audit minutieux de leurs systèmes avant leur déploiement, ou d'investir dans la recherche technique sur la sécurité de l'IA (par exemple pour rendre les systèmes plus interprétables par l'homme). Les travaux dans ce domaine n'ont pas encore atteint leur maturité, et les idées et les discussions sont en constante évolution. Ce qui se passera au cours des mois et des années à venir pourrait donc être déterminant pour l'avenir de l'IA, du Canada et du monde.