Demandez à la responsable de la recherche en intelligence artificielle de Meta Platforms Inc. comment la technologie pourrait être rendue plus sûre et elle s’inspire d’un endroit improbable : l’épicerie.
Les supermarchés regorgent de produits qui offrent des informations clés en un coup d’œil, explique Joelle Pineau.
«Cette liste d’ingrédients permet aux gens de faire des choix éclairés quant à savoir s’ils veulent ou non manger cet aliment», explique Pineau, qui doit prendre la parole à la conférence technologique Elevate à Toronto cette semaine.
«Mais à l’heure actuelle, dans le domaine de l’IA, nous semblons avoir une approche plutôt paternaliste de la transparence, qui consiste à décider quelle est la réglementation ou ce que chacun devrait ou ne devrait pas faire, plutôt que d’avoir quelque chose qui donne aux gens le pouvoir de faire des choix. «.
Les réflexions de Pineau sur l’état de l’IA surviennent alors que le monde est inondé de discussions sur l’avenir de la technologie et sur la question de savoir si elle entraînera du chômage, des préjugés et de la discrimination, voire des risques existentiels pour l’humanité.
Les gouvernements s’efforcent d’évaluer bon nombre de ces problèmes à mesure qu’ils s’orientent vers une législation spécifique à l’IA, qui n’entrera en vigueur au Canada que l’année prochaine au moins.
Les entreprises technologiques souhaitent participer à l’élaboration des garde-fous en matière d’IA, arguant que toute réglementation pourrait contribuer à protéger leurs utilisateurs et à maintenir les concurrents sur un pied d’égalité. Ils craignent néanmoins que la réglementation ne limite le rythme, les progrès et les projets qu’ils ont élaborés en matière d’IA.
Quelle que soit la forme que prennent les garde-fous en matière d’IA, Pineau souhaite que la transparence soit une priorité, et elle a déjà une idée sur la manière d’y parvenir.
Elle dit que la législation pourrait obliger les créateurs à documenter les informations qu’ils ont utilisées pour créer et développer des modèles d’IA, leurs capacités et, peut-être, certains des résultats de leurs évaluations des risques.
«Je n’ai pas encore de point de vue très normatif sur ce qui devrait ou ne devrait pas être documenté, mais je pense que c’est en quelque sorte la première étape», dit-elle.
De nombreuses entreprises du secteur de l’IA effectuent déjà ce travail, mais «elles ne font pas preuve de transparence à ce sujet», ajoute-t-elle.
Les recherches suggèrent qu’il y a encore beaucoup à faire.
L’Institut pour l’IA centrée sur l’humain de l’Université de Stanford a analysé en mai le degré de transparence des principaux modèles d’IA en utilisant 100 indicateurs, notamment si les entreprises utilisaient des informations personnelles, divulguaient les licences dont elles disposent pour les données et prenaient des mesures pour omettre les documents protégés par le droit d’auteur.
Les chercheurs ont découvert que de nombreux modèles étaient loin de réussir le test. Llama 2 de Meta a obtenu un score de 60 pour cent, Claude 3 d’Anthropic a obtenu 51 pour cent, GPT-4 d’OpenAI s’est assis à 49 pour cent et Gemini 1.0 Ultra de Google a atteint 47 pour cent.
Pineau, qui est également professeur d’informatique à l’Université McGill de Montréal, a également constaté que « la culture de la transparence est très différente d’une entreprise à l’autre ».
Chez Meta, qui possède Facebook, Instagram et WhatsApp, il y a eu un engagement en faveur des modèles d’IA open source, qui permettent généralement à quiconque d’y accéder, de les utiliser, de les modifier et de les distribuer.
Meta, cependant, dispose également d’un outil de recherche et d’assistant d’IA qu’il a déployé sur Facebook et Instagram et dont il ne permet pas aux utilisateurs de se désinscrire.
En revanche, certaines entreprises permettent aux utilisateurs de se désinscrire de ces produits ou ont adopté des fonctionnalités encore plus transparentes, mais nombreuses sont celles qui ont adopté une approche plus laxiste ou ont repoussé les tentatives visant à les encourager à rendre leurs modèles open source.
Une approche plus standardisée et transparente utilisée par toutes les entreprises présenterait deux avantages clés, a déclaré Pineau.
Cela renforcerait la confiance et obligerait les entreprises « à faire le bon travail », car elles savent que leurs actions seront scrutées.
«Il est très clair que ce travail est en cours et qu’il doit être bon, il y a donc une forte incitation à faire un travail de haute qualité», a-t-elle déclaré.
«L’autre chose est que si nous sommes aussi transparents et que quelque chose ne va pas – et cela arrive – nous allons apprendre très rapidement et souvent… avant que cela n’entre dans (un) produit, donc c’est aussi un cycle beaucoup plus rapide dans il s’agit de découvrir où nous devons faire mieux.
Même si l’individu moyen ne se sent peut-être pas enthousiasmé par le type de données avec lesquelles il imagine les organisations transparentes, Pineau a déclaré que cela serait utile pour les gouvernements, les entreprises et les startups qui tentent d’utiliser l’IA.
«Ces gens auront la responsabilité de la manière dont ils utilisent l’IA et ils devraient faire preuve de transparence lorsqu’ils l’intégreront à leur propre personnel», a-t-elle déclaré.
.