Début 2020, Mahshid Yassaei s’est sentie profondément inquiète du niveau d’épuisement professionnel des agents de santé – et c’était avant même que la COVID-19 ne frappe. Elle venait de passer six mois à aider l’Agence de la santé publique du Canada avec une plateforme d’information, et elle avait entendu de nombreuses histoires d’épuisement de la part de médecins et d’infirmières praticiennes. « J’ai été choqué qu’ils consacrent 15 heures par semaine uniquement à la saisie de données », explique Yassaei. « Ce sont quelques-unes des personnes les plus intelligentes et les plus passionnées du pays, et elles perdent une grande partie de leur temps dans des tâches administratives. »
Cette prise de conscience a donné naissance à une nouvelle invention : Tali AI, un assistant IA capable d’enregistrer et de résumer les conversations médecin-patient, de faciliter les recherches médicales et d’envoyer des ordonnances. (Considérez-le comme une secrétaire personnelle, s’occupant discrètement de tous les détails.) Il y a quatre ans, lorsque Yassaei, en tant que PDG, a contacté pour la première fois des investisseurs au sujet de Tali, elle avait tendance à répondre : « Bien sûr, le problème est évident, mais pouvez-vous tu fais vraiment ça ? Mais les améliorations de l’IA générative – le modèle d’intelligence artificielle capable de produire une multitude de contenus à partir de commandes assez basiques – ont été rapides et considérables. Maintenant, Yassaei affirme que la réponse des investisseurs est plus susceptible d’être : « OK, en quoi êtes-vous différent des 100 autres entreprises qui font cela ?
À mesure que le rythme de l’IA générative s’accélère, ses promesses s’accélèrent également : les assistants virtuels vous rendront plus productif, plus créatif, mieux informé et mieux diverti. Un dirigeant de Microsoft a déclaré à propos de sa version, Co-Pilot, « vous ne pourrez pas imaginer votre vie sans elle ».
Pour certains, cela peut paraître inquiétant, mais pour les prestataires de soins qui naviguent dans un système poussé au maximum, cela recèle la promesse de rétablir un équilibre crucial entre travail et vie privée – et la possibilité d’une option autre que de quitter complètement la profession. Rien qu’en Ontario, 65 pour cent des omnipraticiens prévoient fermer (ou reconfigurer radicalement) leur pratique au cours de la prochaine demi-décennie, selon une analyse de 2024 du Collège des médecins de famille de l’Ontario.
Des charges administratives démesurées jouent un rôle dans cet exode, explique Hassaan Ahmed, PDG de Phelix.AI, qui a développé des outils logiciels pour les organismes de santé. Dans le passé, note-t-il, les cliniques embauchaient simplement plus de personnel pour donner un coup de main, « mais ces dernières années, surtout après la COVID, les marges sont plus minces que jamais et les dépenses de fonctionnement continuent de monter en flèche. Cela crée un cercle vicieux dans lequel ceux qui restent sont censés faire plus avec moins, créant encore plus de charge administrative et d’épuisement professionnel.
L’été dernier, le gouvernement fédéral a annoncé qu’il consacrerait plus de 15 millions de dollars au projet Health Compass II, un centre basé à Vancouver pour l’IA dans les soins de santé. Tali.AI est l’une des cinq entreprises incluses dans ce pôle, que François-Philippe Champagne, ministre canadien de l’Innovation, des Sciences et de l’Industrie, a décrit comme un « changement de donne ». Cela pourrait certainement changer la situation des médecins et des infirmières de tout le pays qui ont du mal à gérer la paperasse sans sacrifier le temps qu’ils consacrent aux visites des patients. L’Enquête nationale 2024 d’Inforoute Santé du Canada auprès des médecins canadiens a révélé que plus de 44 pour cent des répondants présentaient des symptômes d’épuisement professionnel et que plus de la moitié consacraient régulièrement deux heures ou plus en dehors de leur journée de travail habituelle à des tâches administratives liées à leur travail. Dans ce contexte, un assistant virtuel pourrait être une véritable bouée de sauvetage.
AI 101 : Une introduction à l’assistant virtuel
Il y a treize ans, lorsque Apple dévoilait son iPhone 5, le logiciel contenait quelque chose de nouveau : Siri, un assistant pratique qui pouvait lire vos textes, convertir les mesures à la volée et recommander des restaurants à proximité. Depuis lors, les chatbots sont passés du simple fait de nous dire des choses à celui de faire de plus en plus de choses à notre place. Alimentés par de grands modèles linguistiques (ou LLM), qui reconnaissent et génèrent du texte à partir de gigantesques ensembles de données extraits d’Internet, ces assistants peuvent effectuer diverses tâches, explique Frank Rudzicz, membre du corps professoral du Vector Institute de Toronto et de l’Université Dalhousie à Halifax. . «Vous pouvez lui demander de faire un rapport, de proposer du code, d’écrire de la poésie, de réussir l’examen du barreau, de vous dire où aller ce week-end – et il fait un très bon travail.»
Sans surprise, ce sont les plus grands acteurs technologiques qui font le plus de bruit. ChatGPT d’Open AI est devenu pratiquement synonyme de chatbots : depuis son lancement en novembre 2022, ChatGPT s’est avéré être non seulement l’assistant virtuel à la croissance la plus rapide, mais aussi l’application à la croissance la plus rapide de tous les temps, atteignant 100 millions d’utilisateurs hebdomadaires en moins d’un an. Microsoft a construit Co-Pilot à partir du GPT-4 d’Open AI, tandis qu’Ada, basée à Toronto, une licorne 2021 qui fournit l’automatisation du service client pour des sociétés comme Verizon et Square, a déclaré qu’elle s’associerait également avec Open AI. Cohere, une autre startup d’IA générative basée à Toronto, a développé un concurrent ChatGPT destiné aux entreprises qui pourrait bien inciter l’entreprise à lever 500 millions de dollars auprès d’investisseurs. Plus tôt cette année, Google a combiné ses deux principaux laboratoires d’IA, DeepMind et Google Brain, pour concevoir un nouveau LLM destiné à alimenter l’assistant numérique Gemini, présenté comme une amélioration significative de son chatbot quelque peu terne, Bard.
D’une manière générale, les robots assistants ont une gamme impressionnante : cette technologie a été utilisée pour monter un documentaire de Sundance sur Brian Eno et peut préparer un cocktail tout en se livrant à des plaisanteries sympathiques de barman. Dans un contexte médical, ils pourraient même servir de mains supplémentaires : un robot expérimenté peut apprendre à coudre une rangée de points de suture bien rangés sur une simple plaie. Mais surtout, les assistants virtuels dispensent de tâches plus banales et ennuyeuses. L’IA peut faciliter la corvée consistant à résumer une réunion ; il peut s’attaquer aux tâches de programmation et transférer les données dans une feuille de calcul ; il peut remplir des réclamations d’assurance et saisir des informations de facturation dans un logiciel de comptabilité fournisseurs. Et cela peut aider les employés à répondre à des questions sur les ressources humaines : mon régime de soins dentaires couvre-t-il cette procédure ? Comment puis-je me faire rembourser ces dépenses ? – cela peut prendre un temps incroyablement long à résoudre.
Il existe certains scénarios dans lesquels les compétences particulières d’un assistant virtuel surpassent celles de son homologue humain. Comme le note Yassaei, Tali.AI a été développé dans le but « d’améliorer la qualité et l’exactitude des notes cliniques », en documentant une visite en temps réel et en évitant le risque de perte ou de déformation des détails par une transcription hâtive, permettant ainsi aux cliniciens de se concentrer. sur l’écoute active des patients lors des visites. L’« agent de boîte de réception » alimenté par l’IA de Phelix, en revanche, fonctionne un peu comme un contrôleur de la circulation aérienne hyperefficace pour les communications entrantes et sortantes, catégorisant les fax, générant des résumés compréhensibles, dirigeant les fichiers pour examen vers la personne appropriée, effectuant des recherches de patients et générant graphiques. La plate-forme, explique Hassaan Ahmed, a été « conçue dès le départ pour être généralisée à la plupart des cas d’utilisation dans le domaine des soins de santé. Elle peut donc être mise en œuvre immédiatement sans formation personnalisée » pour de nombreuses tâches – bien que l’entreprise forme des modèles personnalisés. en utilisant des informations spécifiques (telles que les conventions de dénomination) propres à chaque clinique.
« Dans un cas, nous avons aidé une clinique à rationaliser 4 000 types de documents jusqu’à 300, que nous avons ensuite utilisés pour former un classificateur personnalisé avec une précision de près de 90 % », explique-t-il. «Cela prend un peu de temps, mais cela fait une énorme différence.» Pour l’instant, la technologie de Phelix inclut toujours un humain dans le processus dans la plupart des cas d’utilisation pour examiner et approuver le travail de l’assistant virtuel, mais Ahmed dit que cela changera avec le temps.
Avantages et mises en garde
L’adoption de cette technologie présente des avantages tangibles. Dans un rapport publié en février 2024, le Centre canadien pour l’économie de l’innovation a suggéré que l’IA générative pourrait ajouter près de 2 % au PIB du Canada ; un groupe de conseil de Boston a estimé l’année dernière que les gains de productivité annuels dans le seul secteur public américain pourraient totaliser 1 750 milliards de dollars d’ici 2033. Mais les robots assistants peuvent également renforcer la satisfaction globale au travail. « Lorsque les employés se déchargent des tâches qui constituent un fardeau et automatisent toutes ces heures consacrées à des choses monotones, ils sont libres de se concentrer sur les choses les plus intéressantes », explique Rudzicz.
À l’heure actuelle, les assistants virtuels sont très pratiques pour répondre aux commandes, mais ils n’ont pas encore prouvé leur proactivité. Les chatbots montrent toujours une tendance troublante à « halluciner », ce qui est une manière plus douce de dire qu’ils inventent carrément des faits. Pendant des mois, Air Canada a soutenu qu’elle n’était pas responsable d’une fausse politique de remboursement concoctée par son chatbot ; au lieu de cela, la compagnie aérienne a insisté sur le fait que « le chatbot est une entité juridique distincte qui est responsable de ses propres actions ». En février, un membre du Tribunal de résolution civile de la Colombie-Britannique a qualifié cette position de « remarquable » – pas dans le bon sens – et a ordonné à Air Canada de payer.
En juillet dernier, Meta a publié la troisième version de son LLM, Llama – la dernière étape dans la quête de Mark Zuckerberg pour créer une IA générale accessible gratuitement à tous. Il maintient que le cadre d’IA le plus robuste et le plus utile nécessite moins de contrôle d’accès, établissant un parallèle avec le système d’exploitation Linux, qui était largement disponible pour un usage public dans les années 1990 et 2000. Pendant ce temps, les experts souhaitent élaborer des réglementations concrètes avant d’adopter une approche open source pour cette technologie. Il convient de noter que toutes les données qu’un utilisateur alimente dans un outil d’IA, ou tout ce qu’il crée avec cet outil, seront presque certainement utilisées pour former la prochaine génération de ces modèles. (Dans le cas de ChatGPT, les utilisateurs peuvent modifier leurs paramètres pour garantir que leurs conversations ne sont pas utilisées à des fins de formation, bien que cette option coupe également l’accès à leur historique de discussion.)
Compte tenu de la sensibilité des informations médicales personnelles, toute entreprise développant des outils d’IA pour des applications de soins de santé doit prendre en compte d’autres considérations. Adhérer à un modèle de source fermée – c’est-à-dire garantir que toute information ajoutée est entièrement cryptée et restreinte afin qu’elle ne puisse être consultée que par un groupe d’utilisateurs désigné – est un garde-fou. Le modèle d’IA propriétaire et pré-entraîné de Phelix, par exemple, ne sauvegarde pas les données et ne les échange pas avec des tiers tels qu’Open AI. La technologie de Tali ne stocke pas les enregistrements audio recueillis lors des consultations avec les patients, et tous les détails d’identification sont supprimés de ses enregistrements et transcriptions.
Cette approche prudente crée quelques contretemps, comme le note Yassaei. Si les limitations liées à la collecte de données visent à protéger les patients et les cliniciens, elles affectent également la rapidité et la qualité de la documentation. « Trouver le bon équilibre entre l’amélioration des flux de travail cliniques et la minimisation des risques en matière de confidentialité et de sécurité met en évidence les défis complexes liés à l’intégration de l’IA dans les soins de santé », dit-elle. Ce processus implique une compréhension complète de l’environnement réglementaire et des considérations éthiques propres à ce secteur, ainsi qu’une solide compréhension de la meilleure façon de déployer cette technologie pour améliorer les services et réduire l’épuisement professionnel.
Rudzicz met en garde les gens contre la pensée binaire autour de l’IA générative – elle ne sauvera pas la société ni ne la fera tomber – et encourage les organisations à jouer avec la technologie. «C’est une bonne idée d’ouvrir un peu le robinet, d’essayer de trouver des domaines stratégiques où ces agents peuvent être utiles, mais pas de se lancer à fond», dit-il. «Je pense qu’il est trop tôt pour le faire. Nous avons toujours besoin d’un humain aux commandes.
CTVNews.ca s’est associé à MaRS pour mettre en lumière les innovations canadiennes en matière de soins de santé.