3 principes directeurs de l’IA pour donner le coup d’envoi de votre prochaine initiative

IA

IA

C’est une période incroyable de l’ IA pour être un ingénieur en apprentissage automatique ou un scientifique des données.

Tant de ressources avancées comme l’IA se trouvent à quelques clics de votre clavier. De puissants modèles d’apprentissage automatique pré-entraînés, de la traduction à la reconnaissance d’images, sont disponibles publiquement et largement accessibles. Un néophyte enthousiaste de l’apprentissage automatique, après avoir acquis quelques compétences de base en codage dès le premier jour, peut utiliser des modèles comportant des milliards de paramètres à la frontière de la recherche en IA comme un smodin.

Pourtant, malgré cette abondance d’outils, il n’est pas facile de lancer un projet d’IA réussi. De nombreux choix doivent être faits. Modèles, algorithmes, bibliothèques, signaux, plateformes – la liste est longue. Mais si l’IA est désormais omniprésente, il n’est pas toujours évident de concevoir et de mener à bien un projet d’IA de manière optimale.

Imaginons le scénario suivant : vous dirigez l’équipe chargée de la réussite des clients de votre organisation. Chaque jour, des centaines de tickets de service client arrivent, submergeant la capacité limitée de votre équipe. Vous souhaitez ajouter une couche d’intelligence artificielle au flux de travail des tickets d’assistance pour classer par ordre de priorité ceux qui sont urgents et importants, et automatiser les réponses le cas échéant.

Comment faire pour qu’un projet comme celui-ci démarre ?

3 principes directeurs pour lancer votre initiative d’IA
C’est normal d’être limité.
Prévoyez vos erreurs d’IA.
Instaurer la confiance dans l’IA.
C’est normal d’être étroit
La première règle est de commencer petit et étroit. L’un des principaux objectifs de l’IA est l’intelligence générale, c’est-à-dire un algorithme capable d’effectuer de nombreuses tâches différentes, tout comme un humain. Une version plus réduite est l’IA étroite ou faible, qui est spécifiquement entraînée à effectuer une certaine tâche, comme jouer aux échecs ou détecter une fraude à la carte de crédit.

Si l’IA étroite semble moins attrayante, dans la pratique, elle peut être la bonne stratégie.

Revenons à notre scénario de ticket d’assistance. Chaque ticket d’assistance contient un texte décrivant le problème rencontré par le client. Nous avons donc besoin d’un algorithme qui comprenne ce texte.

Mais lorsqu’il s’agit de notre tâche spécifique d’optimisation du flux de travail de l’assistance, il n’est peut-être pas optimal de commencer par un grand modèle généraliste.

Pour illustrer pourquoi, visualisons comment un modèle linguistique « pense » aux mots. Nous pouvons demander au modèle de jouer à l’association de mots. Dans des mots comme « projet de loi » et « geler », quels sont les mots les plus étroitement liés ?

Pour un grand modèle, un mot comme « projet de loi » fait apparaître des concepts liés à la législation (comme « réforme », « amendement » ou « bipartisan »). Et le terme « gel » est généralement associé à des températures basses (pensez à « froid », « gel » ou « dégel »).

Comment le service client de l’IA transformera les industries en 2022

Bien que ces associations de mots soient essentiellement correctes, elles ne répondent pas à nos besoins.

Dans le contexte du service clientèle, les termes « facture » et « gel » ont une signification particulière. Les clients se renseignent souvent sur la facturation, et l’un des principaux problèmes rencontrés par les utilisateurs est une interface non réactive. Même avec un petit ensemble de données de moins de 100 000, nous pouvons former un modèle hautement spécialisé qui « pense » davantage en fonction du contexte de soutien.

IA

Pour ce modèle spécialisé, « bill » est associé à la facturation (comme « facture » ou « reçu »), et « freeze » est conceptuellement lié à une expérience utilisateur défectueuse (« close », « crash », « exit »).

Ainsi, une IA pour les tickets d’assistance peut avoir un cycle de développement plus rapide lorsque le modèle linguistique est spécifiquement conscient du cas d’utilisation de l’assistance.

Planifiez vos erreurs d’IA

Aucun algorithme n’est parfait. Même l’IA la plus avancée fera des erreurs, donc la planification de votre mise en œuvre de l’IA doit également inclure la façon de faire des erreurs.

Poursuivons avec l’exemple du ticket d’assistance. Dans cette conception, nous proposons d’avoir un modèle d’apprentissage automatique qui classe chaque ticket comme urgent ou non urgent. Dans cette tâche de classification, le modèle peut avoir raison de deux façons : dire qu’un ticket est urgent quand il l’est vraiment, et dire qu’un ticket n’est pas urgent quand il ne l’est pas. Et le modèle peut également être erroné selon deux modalités : dire qu’un ticket est urgent alors qu’il ne l’est pas, et dire qu’un ticket n’est pas urgent alors qu’il l’est. Cette image vous est peut-être familière – ces quatre résultats sont les quatre grilles d’une matrice de confusion.

Les spécialistes des données passent beaucoup de temps à améliorer les mesures de performance des modèles.

Mais le moyen le plus pertinent d’évaluer un modèle devrait être l’impact commercial. Et lorsqu’il s’agit de l’impact sur les affaires, l’équilibre entre la précision et le rappel devient beaucoup plus nuancé que le simple comptage des erreurs.

Par exemple, il y a deux façons de faire une erreur, mais le coût de chacune peut être très différent. Prédire qu’un ticket d’assistance est urgent alors qu’il ne l’est pas crée une charge supplémentaire pour l’équipe. D’autre part, prédire qu’un ticket n’est pas urgent alors qu’il l’est en réalité peut diminuer la satisfaction du client et augmenter le taux de désabonnement.

L’équilibre entre ces types de coûts et d’avantages commerciaux est beaucoup plus pertinent que le simple échange de précision et de rappel. Dans les scénarios où agir par erreur est trop coûteux, nous pouvons souhaiter que notre algorithme soit rigoureux – ce qui signifie qu’aucune action n’est entreprise à moins d’être vraiment sûr, même si cela signifie manquer des opportunités.

Lire la suite de nos contributeurs expertsLights, Camera, AI : comment nous avons réalisé un film avec un scénario écrit par l’IA

Instaurer la confiance dans l’IA

Imaginez que vous ayez fait d’énormes progrès avec le projet d’IA pour les tickets d’assistance. Vous avez collecté beaucoup de données sur les tickets passés, construit un algorithme qui prédit si un ticket est urgent, et l’algorithme choisit également la meilleure réponse parmi un certain nombre de modèles. Le modèle fonctionne.

Mais sera-t-elle utilisée ? Comment un tel algorithme s’intègre-t-il dans le flux de travail de l’équipe ?

Lors de la conception d’un projet d’IA, l’interaction homme-algorithme doit être prise en compte. L’un des aspects les plus importants d’un projet d’IA est l’efficacité et la facilité d’utilisation de l’algorithme. Un algorithme ne sera pas efficace s’il n’est pas adopté par les utilisateurs, quelle que soit la précision du modèle. Les utilisateurs et les experts humains peuvent améliorer considérablement l’efficacité de l’algorithme. Cela pourrait être dû à une connaissance du domaine qui n’est pas prise en compte par les données, comme les vendeurs qui ont un lien personnel avec leurs clients.

En outre, il y a quelque chose que les humains font sans effort et que les algorithmes ne peuvent pas (encore) automatiser. Les humains sont bien meilleurs pour analyser les causes et les effets et inventer des explications causales. Même si nous n’avons pas toujours raison, notre interprétation mécaniste – ou, tout simplement, le bon sens – nous fournit une certaine défense contre les corrélations fallacieuses, où dans un ensemble de données comportant de nombreuses variables, certaines ne présenteraient une corrélation que par hasard.

Prenons l’exemple du problème des bonbons. Nous trouverions absurde l’idée que les gelées sont liées à l’acné, car nous ne pouvons pas trouver d’explication mécaniste plausible pour une telle relation de cause à effet.

AI

Alors comment mettre un humain au milieu et instaurer la confiance entre l’IA et les utilisateurs ?
Choisissez des algorithmes de modélisation plus faciles à interpréter, en particulier ceux qui permettent de dériver des règles intuitives pouvant être examinées par un expert (comme ce modèle convivial pour les experts qui combine un algorithme d’arbre de décision avec des experts cliniques pour prédire le risque des patients des unités de soins intensifs).
Faites appel à des humains pour traduire les scores et les recommandations de l’IA en explications de snippets. Voici un exemple : « Ce cas d’assistance est urgent car l’utilisateur est un client payant depuis deux ans et son activité produit a diminué de 50 % au cours du dernier mois ». Apprendre à utiliser l’intelligence artificielle

Disposer d’une interface interactive qui accepte les entrées de l’utilisateur et ajuste le comportement du modèle à la volée.

Si un cas d’assistance est classé comme urgent, par exemple, permettez à un réviseur humain de l’approuver ou de le déclasser.
Ne vous attendez pas à ce que l’algorithme soit statique. Incorporer constamment les données de l’utilisateur dans les algorithmes d’apprentissage continu (comme l’apprentissage par renforcement) pour mettre à jour le modèle. Par exemple, l’algorithme peut détecter et apprendre quand les réviseurs humains rétrogradent constamment certains cas d’assistance classés comme urgents.
N’oubliez donc pas de commencer petit et étroit. Concevez un algorithme spécialisé pour votre tâche spécifique et planifiez votre IA en fonction des erreurs attendues afin de maximiser l’impact sur l’entreprise. Au lieu de tourner autour de l’ajustement des paramètres pour obtenir une plus grande précision, investissez dans la conception de l’interaction entre l’algorithme et l’utilisateur dans un système de production en direct. Nous espérons que ces principes contribueront à la mise en œuvre de notre nouvelle initiative en matière d’intelligence artificielle.