Intelligence artificielle : les technologies émergentes et leurs enjeux éthiques pour l’industrie de l’assurance
L’essor actuel de l’intelligence artificielle (y compris, et surtout, l’intelligence artificielle générative) présage la possibilité de meilleurs résultats pour la clientèle et les assureurs. « Il s’agira peut-être du plus grand bond en avant pour l’industrie », affirme Jonathan Spinner, vice-président adjoint de la transformation des sinistres à Aviva. En intégrant l’intelligence artificielle aux processus d’appréciation des risques et d’établissement des taux, il est possible d’analyser un risque à une échelle très granulaire, ce qui accroît l’exactitude et la neutralité des primes. Sa capacité de prédiction aide les experts et expertes en sinistres ainsi que les clients et clientes à s’entendre rapidement sur le règlement des sinistres; sa capacité d’analyse améliore la procédure d’embauche, la fidélisation et le service à la clientèle. Par contre, le recours à l’intelligence artificielle dans divers aspects de l’industrie entraîne une foule de considérations éthiques. Le développement et l’adoption de chaque nouvel outil palpitant par les assureurs canadiens s’accompagnent ainsi de questions importantes relatives à l’explicabilité, à la neutralité, à la disponibilité et à la protection de la vie privée.
La première partie du bulletin présente des exemples de technologies d’intelligence artificielle avantageuses pour l’industrie de l’assurance au pays. La deuxième partie du bulletin s’attarde à certaines considérations éthiques clés liées à l’intégration de nouvelles applications dans presque toutes les activités d’assurance. Selon le rapport 2021 de l’Institut d’assurance du Canada sur les mégadonnées et l’intelligence artificielle, ces technologies redéfiniront l’industrie au cours des 10 prochaines années.
Partie 1 : Les usages de l’intelligence artificielle
La productivité
La prédiction
L’avènement de l’apprentissage machine, un domaine de l’intelligence artificielle dans le cadre duquel des algorithmes absorbent des ensembles de données volumineux pour ensuite anticiper et générer de nouvelles données, a ouvert la voie à l’utilisation de l’intelligence artificielle afin de prédire les risques en assurance. Jonathan Spinner fournit l’exemple d’un modèle prédictif qui permet aux experts et expertes en sinistres de prendre de meilleures décisions éclairées, plus rapidement, avec confiance, dès la déclaration d’une collision automobile. Les analyses issues de l’apprentissage machine donnent une idée immédiate de la réparabilité d’une voiture. « S’il peut évaluer d’un seul clic tous les facteurs d’un sinistre grâce au modèle prédictif, l’expert n’a pas besoin d’attendre trois jours pour qu’un estimateur se déplace et regarde la voiture ou pour qu’un garage désassemble le véhicule et constate les dommages », affirme M. Spinner. « L’expert peut ainsi tenir une discussion efficace avec la personne assurée pour lui expliquer le processus de règlement de ce sinistre. » Si le véhicule est une perte totale, la personne peut tout de suite chercher une voiture de remplacement. Dans le cas où le véhicule serait réparable, l’intelligence artificielle peut accélérer le processus en trouvant le garage le plus près qui possède l’expertise requise. « On utilise maintenant un modèle prédictif basé sur l’apprentissage machine pour trouver les 10 ateliers qui feront le meilleur travail le plus rapidement possible et qui détiennent toutes les certifications nécessaires selon la marque, le modèle et l’année du véhicule », ajoute M. Spinner.
Ce dernier cite également la possibilité d’utiliser l’intelligence artificielle pour évaluer les dommages corporels liés à un accident d’automobile. L’intelligence artificielle peut digérer et résumer toutes sortes de documents médicaux plus rapidement qu’un être humain. Un modèle prédictif peut donc déterminer la probabilité d’une lésion persistante des tissus mous ou d’un traumatisme émotionnel persistant d’après les mots utilisés par le personnel de la santé dans ses évaluations, et même proposer des solutions. « Le but de tout assureur est d’aider les gens à retourner au travail, à résumer leur vie et à se sentir mieux à la suite d’un sinistre », précise M. Spinner. « Pour y parvenir, il est important de bien comprendre la situation. L’intelligence artificielle peut d’ailleurs suggérer des plans de traitement efficaces dans le cas de certaines blessures. »
En assurance des entreprises, un modèle prédictif est utile dans le cas de nouvelles petites entreprises qui souhaitent souscrire des garanties. Sachin Rustagi remarque qu’en l’absence d’un registre des recettes, les petites et moyennes entreprises nouvellement établies fournissent souvent leur plan d’affaires aux assureurs à des fins d’appréciation du risque. « En théorie, un outil d’intelligence artificielle peut analyser le plan d’affaires, déterminer sa complexité, établir la probabilité de réussite et décider si la nouvelle entreprise constitue un bon risque selon des microdonnées et macrodonnées obtenues en temps réel auprès de tiers », note-t-il. Le rapport de l’Institut d’assurance a d’ailleurs discuté de ce point : « La possibilité que les assureurs commencent à couvrir des risques jusque-là réputés inassurables est un des résultats prévus de l’adoption de l’analytique des mégadonnées. L’accès à de plus nombreuses données et à des outils d’analyse plus performants permettra vraisemblablement de déterminer, au cours des 10 prochaines années, que de nouvelles couvertures sont viables. »
Les ressources humaines
L’industrie de l’assurance, comme de nombreux autres secteurs, compose actuellement avec une pénurie de personnel. Les organisations se posent plusieurs questions, selon Jonathan Spinner : « Où trouverons-nous la prochaine génération de travailleurs et travailleuses? Quelles formations et expériences possèderont-ils? Comment les aiderons-nous à atteindre le niveau de compétence leur permettant de servir efficacement la clientèle? » Il considère que l’intelligence artificielle est en mesure de réduire fortement le temps de formation du nouveau personnel. Prenons l’exemple d’une experte en sinistres nouvellement embauchée dont l’appel avec une cliente est écouté par un assistant virtuel basé sur l’intelligence artificielle, lequel lui fournit ensuite des conseils précieux. « L’assistant a des fonctionnalités intéressantes », détaille M. Spinner. « Il peut détecter le niveau de stress, ainsi que suggérer la prise de pauses pour laisser la cliente parler ou la modification du niveau d’énergie pour mieux refléter l’état de la cliente. » Dans certains cas, l’assistant peut même discuter directement avec la clientèle par écrit. La technologie de clavardage Web est « de plus en plus avancée », souligne M. Spinner. « En plus de lire les mots, elle comprend l’intention, le contexte et l’émotion qui se cache derrière. »
L’espoir? Attribuer les tâches peu intéressantes à l’intelligence artificielle et confier les tâches spécialisées au personnel formé et chevronné. Le rapport de l’Institut d’assurance l’a d’ailleurs indiqué : « Le travail procurera également une plus grande source de satisfaction aux courtiers, aux agents, aux experts, etc., du fait que l’automatisation de certaines tâches fastidieuses leur permettra de se concentrer sur des activités plus gratifiantes qui bénéficient à la clientèle. Le changement est inévitable, car les assureurs adoptent une tournure d’esprit axée sur le numérique, ce qui sera positif pour la plupart d’entre eux. »
La prévention de la fraude
La fraude par réclamation falsifiée constitue un des principaux casse-têtes de l’industrie de l’assurance, mais l’intelligence artificielle apporte de nouveaux moyens de la prévenir. « Les données dont on dispose déjà révèlent peut-être qu’une personne assurée à titre de conducteur a été nommée comme témoin dans trois réclamations pour des gens habitant dans un rayon de trois pâtés de maisons », dit Jonathan Spinner. Les enquêtes permettant d’établir et de vérifier ces liens prennent beaucoup de temps et de ressources. L’intelligence artificielle peut analyser une variété de données (adresses IP, numéros de téléphone, numéros de compte bancaire) et établir des liens cachés. « Elle peut également établir des liens de deuxième, troisième ou quatrième niveaux pour dresser un portrait exhaustif. » De plus, l’intelligence artificielle apprend à reconnaître les schémas vocaux des réclamations falsifiées et des témoignages dictés. Et M. Spinner de préciser : « Elle analyse le niveau de stress et de confiance, le rythme et le ton lorsque certaines réponses sont données. Elle peut prédire la probabilité qu’une déclaration soit fausse étant donné qu’un éventail de facteurs mis ensemble signale un risque au-dessus d’un certain seuil. »
Le rapport de l’Institut d’assurance a cité un article de Daniel Fagella, lequel écrivait que l’application de l’analytique à la détection des fraudes « est l’un des domaines où l’adoption de la technologie est la plus rapide dans l’industrie ». En plus de faire épargner des sommes considérables aux assureurs, une détection très précise des fraudes permet d’éviter beaucoup de détresse aux personnes en réduisant « les cas de faux positifs, qui se soldent par de désastreuses expériences d’assurance pour les consommateurs injustement accusés de fraude ».
M. Spinner trouve palpitantes et ahurissantes les nombreuses utilisations possibles de l’intelligence artificielle par les assureurs. « Les outils sont capables d’analyser d’immenses quantités d’information et de documents associés aux réclamations – que ce soit pour une collision, un bâtiment ou une lésion – puis de les lier à des données historiques sur les facteurs ayant influencé les règlements, dicté des jugements favorables, permis un retour au travail rapide. Les possibilités sont infinies pour l’industrie dans son ensemble. »
Partie 2 : L’utilisation éthique de l’intelligence artificielle
L’explicabilité
Le défi de l’explicabilité est quelque peu endémique à l’assurance : nombre de personnes ne comprennent pas bien l’élaboration des taux et considèrent « que l’assurance est une dépense nécessaire plutôt qu’une forme de protection essentielle ». La distinction entre corrélation et causalité sous-tend ce défi, notamment en ce qui concerne les primes d’assurance automobile basées sur l’âge et le genre. Bien qu’une corrélation ait été établie entre ces facteurs et un risque accru, il n’est pas certain que l’âge et le genre d’une personne mènent réellement à un risque accru.
Lorsque l’intelligence artificielle procède à l’appréciation d’un risque, la distinction entre corrélation et causalité devient encore plus floue. « Quand on commence à pointer la machine vers les vastes données notoirement amassées par l’industrie de l’assurance, on jette la lumière sur des corrélations moins intuitives », explique Jonathan Spinner. « Il devient alors très difficile, d’un point de vue de l’explicabilité, de vulgariser le fonctionnement de la machine en langage naturel pour l’être humain. » Le rapport de l’Institut d’assurance a d’ailleurs avancé que « les modèles en “boîte noire” qui prédisent des résultats sans les expliquer sont incomplets et ne sont pas prêts à l’emploi ».
M. Spinner n’est pas entièrement certain de la manière dont l’industrie peut surmonter le défi de l’explicabilité alors que l’intelligence artificielle devient une ressource privilégiée pour des modèles prédictifs de plus en plus complexes. Il se demande si l’intelligence artificielle ne fait pas partie même de la solution. Quiconque a déjà testé ChatGPT sait que l’outil peut générer du texte compréhensible par un jeune enfant. Une technologie semblable pourrait peut-être servir à expliquer la conception d’un modèle prédictif, c’est-à-dire les variables utilisées et les raisons justifiant leur choix. Quant à la distinction entre corrélation et causalité, M. Spinner laisse entendre que cette tâche revient aux scientifiques de données, auxquels les assureurs font de plus en plus appel pour développer et tester des modèles basés sur l’intelligence artificielle.
La neutralité
Jim MacKenzie, consultant en gestion des risques au gouvernement de la Saskatchewan et formateur en éthique des affaires à l’Université de Regina, décrit les activités d’assurance comme un exercice de « séparation ». Les assureurs utilisent des modèles de risques pour établir les groupes de personnes qui sont peu susceptibles de présenter des réclamations et ceux qui sont très susceptibles de le faire. « On dispose maintenant d’un outil encore meilleur pour définir ces groupes », précise M. MacKenzie. « Les assureurs font face à une grande pression pour utiliser cette information avant leurs concurrents. Les données circulent rapidement, et l’intelligence artificielle accélèrera encore plus leur vitesse de transmission. »
Par contre, si les nouveaux constats sont appliqués trop rapidement, certaines personnes se retrouveront injustement dans une situation désavantageuse. M. MacKenzie donne l’exemple du tricot comme variable potentielle dans le profil de risque d’une personne. L’intelligence artificielle peut déterminer que les gens faisant du tricot ont moins de chance de présenter une réclamation. Même si ce constat est actuariellement valable, est-il vraiment juste d’imposer une prime d’assurance plus élevée aux gens ne faisant pas de tricot en raison d’un tout nouveau modèle basé sur l’intelligence artificielle (lequel n’est peut-être pas explicable)? Voilà une question qui mérite qu’on s’y attarde, même s’il est tentant de se dépêcher à monopoliser le marché des tricoteurs et tricoteuses à la recherche d’assurance.
M. MacKenzie indique une autre utilisation de l’intelligence artificielle qui soulève des questions de neutralité, soit les modèles qui prédisent la vitesse à laquelle une personne est susceptible d’accepter le règlement d’un sinistre. Les assureurs ont avantage à régler rapidement les sinistres, mais est-ce aussi le cas pour la clientèle? « Lorsque le règlement se conclut très rapidement, la personne tend à accepter une indemnité moindre », note M. MacKenzie. « Elle tire peut-être une certaine satisfaction de pouvoir passer à autre chose, et c’est pourquoi elle est encline à ne pas négocier plus. Mais il est question d’une prédiction faite par l’intelligence artificielle, non pas d’une question posée. Respectons-nous l’autonomie des particuliers de prendre leurs propres décisions si l’intelligence artificielle affirme qu’une personne de telle ethnie et de telle classe économique dans telle région du Canada est très susceptible de vouloir recevoir rapidement une indemnité? »
On aborde alors le sujet épineux des préjugés, qui est un problème prouvé de l’intelligence artificielle, notamment envers les femmes et les personnes de couleur. Le rapport de l’Institut d’assurance a présenté une expérience menée par Amazon, dans le cadre de laquelle on a observé qu’un outil d’intelligence artificielle privilégiait les candidats masculins étant donné qu’il avait été alimenté par des données soumises principalement par des hommes. Ce n’est là qu’un des nombreux exemples de préjugés, et d’autres secteurs utilisent déjà des trousses de neutralité de l’apprentissage machine pour tenter de les éliminer. Selon le rapport, la capacité de ces soi-disant systèmes de neutralité est difficile à juger dans de larges contextes et « l’industrie doit reste à l’affût de biais imprévus dans ces outils d’analyse nouveaux et complexes ».
La disponibilité
La protection de la vie privée
Nombre de secteurs se préoccupent de la sécurité des renseignements personnels, y compris les banques, les établissements de soins de santé et les organismes gouvernementaux. L’industrie de l’assurance amasse de vastes données auprès de sa clientèle et au sujet de celle-ci; elle a la responsabilité de protéger cette information tout en faisant preuve de transparence quant à son utilisation. L’intelligence artificielle a-t-elle accès à ces données? Comment sont-elles intégrées aux processus d’appréciation des risques et d’établissement des taux pour les personnes les ayant fournies? Comment les assureurs empêchent-ils les pirates informatiques de mettre la main sur ces données? Voilà des questions auxquelles les assureurs doivent répondre.
En fait, Sven Roehl, vice-président directeur de l’innovation à MSG Global et fondateur de Cookhouse Labs, recommande aux assureurs de déterminer les réponses à ces questions à l’étape théorique, soit pendant la conception et l’essai des modèles prédictifs. Toute organisation doit définir avec clarté et en amont une stratégie relative à l’intelligence artificielle dans laquelle elle décrit ses moyens de prévention et de gestion des atteintes à la vie privée. « Sans stratégie, on tombe dans un piège courant », insiste M. Roehl. « On cherche une solution chaque fois qu’un problème survient, ce qui mène à une panoplie de mesures cloisonnées. Il est alors très difficile de voir la situation dans son ensemble. »
Une stratégie globale permet de répondre à des questions de base, dont les types de modèles utilisés par l’organisation (une solution clé en main comme ChatGPT ou une solution développée en interne). M. Roehl souligne que les organisations qui conçoivent leurs propres modèles contrôlent en partie la nature et la qualité des données servant à l’apprentissage machine, ce qui réduit parfois les préjugés (l’intelligence artificielle reflétant très certainement « ce qu’elle mange » au chapitre des données), et aussi la traçabilité. D’après lui, les organisations devraient créer des registres d’intelligence artificielle permettant de faire le suivi du processus décisionnel, des données utilisées et des systèmes impliqués. Cette méthode résoudrait peut-être le dilemme de l’explicabilité et améliorerait l’imputabilité dans le cas d’une injustice ou d’un préjugé, par exemple si un modèle mène un assureur à imposer une prime trop élevée à un certain groupe social. Une stratégie globale incorporerait des moyens de repérer et de corriger ces erreurs.
Bien entendu, il faut adapter la stratégie à mesure que l’intelligence artificielle générative évolue. « Ce n’est que le début », insiste M. Roehl. « On joue actuellement à Donkey Kong devant le téléviseur des parents. Voilà où est rendue l’intelligence artificielle générative. Dans plusieurs années, on atteindra l’intelligence artificielle générale, c’est-à-dire que les systèmes seront plus intelligents que le plus brillant de tous les êtres humains. » Cette idée devrait-elle nous inquiéter? L’être humain deviendra-t-il redondant? « Notre génération profitera des nombreux avantages de l’intelligence artificielle », annonce M. Roehl. Celui-ci est d’avis que le moment est idéal, pendant qu’on interagit autant avec l’intelligence artificielle, d’explorer la manière de créer une bonne intelligence artificielle et de protéger les générations futures. « Il faut trouver un moyen de garantir le respect des principes d’éthique, même lorsqu’on ne contribuera plus au développement des systèmes. »