L’Impact de ChatGPT sur l’Entreprise
1. ChatGPT, une révolution dans le traitement du langage naturel
ChatGPT est un modèle d’Intelligence Artificielle de la famille du Machine Learning faisant partie de la
classe des modèles appelés Large Language Model.
Comme leur nom l’indique, ces modèles sont spécialisés dans le traitement du Langage et peuvent
donc soit comprendre le sens d’un texte, soit générer du texte à la demande. Ils sont dits « Large » car
comme tout modèle de Machine Learning, ils ont été entrainés mais cette fois sur des jeux de données
d’entrainement géants représentant pour ChatGPT par exemple tout ce qui a été publié sur le web
jusqu’en 2021, tout Wikipédia et tous les livres qui ont été publiés dans le monde depuis la nuit des
temps.
Le principe de ces modèles repose sur le principe de base du Machine Learning : un modèle va apprendre
de la corrélation statistique des exemples qu’il pourra déduire de son apprentissage.
Il est possible de construire un modèle de prédiction du prix d’un appartement en fonction de sa
localisation, de son orientation, ascenseur ou pas ascenseur … avec quelques milliers d’exemples.
De la même manière, on peut apprendre statistiquement à un modèle à reconnaître le sentiment contenu
dans une phrase en lui donnant quelques milliers de phrases associées chacune au sentiment ressenti.
Le modèle sera ensuite capable de faire le lien statistique entre les mots qu’il voit dans la phrase qui lui
est présentée et en déduire le sentiment qu’elle représente.
Les LLMs ont généralisé ce principe de relations entre les mots. En partant du principe que ce qui avait
été écrit depuis la nuit des temps était l’expression de la pensée humaine et qu’il suffisait dans cette
pensée de comprendre qu’elles étaient les relations statistiques sous-jacentes entre les mots qui la
constituaient pour être en mesure de reproduire cette pensée.
Une vision très « brute de force » de l’éducation : « d’abord apprends tout et déduis en la relation entre
les mots. Si on te pose une question, tu sauras statiquement le mot qui vient après compte tenu de tout
ce que tu as lu. Et comme tu as appris sur tout ce que l’humain a écrit, on peut raisonnablement penser
que ce que tu vas répondre correspond à ce qu’un humain aurait répondu. »
Les LLMs ne comprennent donc pas. Ils prédisent juste statistiquement le mot suivant de proche en
proche mais avec un entrainement tel, qu’on s’attend à ce qu’ils arrivent à reproduire peu ou prou
la pensée humaine. Cette fonctionnalité de génération du mot suivant s’appelle le mécanisme de
complétion et on parle de Generative AI par opposition à l’Analytical AI que nous avons connue avec
les débuts du Machine Learning, qui elle était restreinte à une unique recommandation.
Il est apparu que cet apprentissage statistique de la relation des mots entre eux sur des jeux
d’entrainement sensés représenter la pensée humaine permettait aux LLMs d’intégrer la construction
statistique de règles entières comme le sens commun et qu’au final les modèles réussissaient à faire
de l’inférence en ayant capté ce sens caché de la relation des mots entre eux qui constitue la pensée.
ChatGPT est donc l’un d’entre eux. Issu de la société Californienne OpenAI créée en 2018, capitalisée
d’abord à hauteur de 100 M$ par des fonds comme Séquoia Venture et ensuite par des industriels
comme Microsoft à hauteur de 1 Md$ qui a investi 10Md$ et pris 49% du capital.
Entrainés sur des jeux de données géants, fonctionnant sur des infrastructures géantes elles aussi avec
175 Milliards de paramètres, ces modèles sont capables de réaliser ces inférences induites par la relation
statistique des mots entre eux. Ils doivent être ensuite réentraînés par des humains pour « cadrer » le
raisonnement d’un enfant qui aurait appris en vrac afin de converger vers un raisonnement intégrant
une forme de « morale » humaine, un surmoi en quelque sorte. Et enfin, la mise à disposition d’une API
permet de faire travailler ces modèles sur des contextes spécifiques ou d’intégrer des expertises.
ChatGPT est un démonstrateur de l’état de l’art de la compréhension et de la génération du langage
présenté sous la forme d’un agent conversationnel que l’on appelait avant ChatBot. Il est le fruit et
la synthèse de l’évolution de la pensée du Machine Learning poussée à son extrême dans toutes les
dimensions autant conceptuelles que matérielles.
Il nous faut maintenant comprendre comment ces LLMs aux capacités de traitement du langage,
aussi appelées NLP Natural Langage Processing, inégalées, vont pouvoir s’intégrer dans l’entreprise et
augmenter sa performance
2. Un nouveau chemin d’innovation à mettre en place pour maîtriser les LLMs
ChatGPT en l’état n’est absolument pas utilisable dans l’entreprise. Ses 40% de taux d’erreur, un
indéterminisme des réponses incompatible avec une utilisation industrielle, un préapprentissage
généraliste qui ne le spécialise en rien en font un outil impressionnant par ses nouvelles capacités mais
très loin de nos standards de qualité.
Cependant, la démonstration faite par ChatGPT et son positionnement de plateforme de base ouvrent
indéniablement de nouveaux horizons pour le NLP. Il faudra, comme pour toute innovation technologique,
affiner les LLMs avec du « test and learn » dans une démarche d’innovation qui segmentera les usages
et définira les limites de ces nouveaux outils avec une nouvelle combinatoire d’exploration dont voici
quelques illustrations.
Des capacités d’entrainement permettant d’obtenir un modèle adapté
L’API offre la possibilité d’entrainer ChatGPT sur des sujets ou des expertises spécifiques puis d’affiner
les réponses avec une intervention humaine. Il faudra évaluer la performance de ces LLMs entrainés,
comprendre leur sensibilité aux Datasets de préentrainement, aux Datasets de réentrainement, à la
taille du modèle, etc.
Diversification et spécialisation des LLMs
L’offre de LLMs se développe à grands pas, avec 174 LLMs recensés à ce jour. Au-delà d’une segmentation
technique (architecture, taille, taux d’erreur acceptable, …), le marché laisse présager d’une segmentation
commerciale classique de solutions entreprise des LLMs par cas d’usage. Ils seront alors entrainés pour
un métier, ou même un secteur d’activité avec ses règles et sa sémantique spécifique, il ne restera plus
qu’à faire le bon choix et donner son contexte.
Des architectures impactées par les structures de coûts des LLMs
Les structures de coûts variables facturées à la requête de ces modèles de NLP proposés en mode
MaaS (Modele as a Service) vont pousser les organisations à chercher des architectures permettant
de revenir en CAPEX amortissables. De nouvelles architectures plus ou moins hybrides voient le jour
dans lesquelles les LLMs ne sont plus utilisés au fil de l’eau mais seulement pour entrainer des modèles
in-house qui vont copier leurs réponses.
L’apparition des LLMs voit donc une nouvelle ère d’innovation se mettre en œuvre, dans laquelle les
entreprises vont massivement investir au vu du potentiel inestimable de ces nouveaux outils en termes
d’efficacité opérationnelle impactant autant les métiers que les processus avant d’en faire de nouvelles
offres.
3. L’apparition directes des LLMs à l’entreprise
Les capacités de traitement et de génération de texte des LLMs nous laisse présager une amélioration
de plusieurs ordres de magnitude de ce que nous pouvions déjà réaliser avec les technologies de NLP
du Machine Learning de première génération (Analytical AI) et l’apparition de nouveaux cas d’usage
absolument inenvisageables auparavant. Une fois maitrisés par les directions de la stratégie Data IA
et les Chief Data Officers, ces outils viendront assister les métiers et s’insérer dans les processus de
l’entreprise pour encore une fois améliorer son efficacité opérationnelle et ici ses coûts de structure
3.1. De nouveaux assistants pour les métiers
Le traitement et la génération de documents font partie du quotidien de tous les métiers. Ces nouveaux
outils vont venir augmenter la performance des métiers et leur donner le temps de se concentrer sur les
taches où l’humain a le plus de valeur ajoutée, principe de base de la mécanisation du travail appliqué
depuis le début de l’ère industrielle
3.1.1 Les améliorations
Les applications classiques de traitement du langage et des contenus non structurés vont se voir
boostées par les capacités des LLMs.
La recherche documentaire : passer de la liste d’URL à examiner à la solution à consommer/utiliser, la
consultation d’une base de données pour rechercher les termes spécifiques d’un contrat d’assurance
prend 7 minutes pour un téléconseiller et passera à moins d’une minute, …
L’expérience utilisateur : les parcours utilisateurs vont être révolutionnés par une augmentation de
la compréhension de l’intention et la possibilité d’amener à l’utilisateur des réponses structurées et
argumentées. Les parcours de e-commerce pourraient voir le « Search & Basket » détrôné par d’autres
formes de parcours et le selfcare atteindre un nouveau niveau d’autonomie
3.1.2 Les nouveaux usages
Ce qui caractérise le plus les LLMs sont leurs capacités à générer du contenu.
Synthèse de documents : synthèse de compte rendu de réunion, note de synthèse de plusieurs
documents, …
Génération de contenus à la demande : création de parties de programme (Copilot), création de clauses
de contrat, création de parties de réponses à appel d’offre, génération automatique de documentations
réglementaires récurrentes comme dans le cas des produits financiers ou encore des infrastructures
industrielles réglementées (nucléaires, déchets, …).
Les nombreux retours des développeurs sur l’usage de Copilot laissent présager des modalités
d’utilisation de ces nouveaux assistants qui nous permettront de raisonner par équivalence.
Copilot génère du code à la demande. Les développeurs font appel à Copilot pour des parties « classiques »
de leur code, comme ils le font en allant chercher des bouts de code open source. Mais cette fois sans chercher,
juste en décrivant le besoin avec en plus une capacité à s’adapter au contexte décrit dans la demande.
Un gain de temps considérable et selon eux, une baisse réelle de la charge mentale et du temps pour créer
le code complexe qui fera la différenciation, l’unicité, l’intelligence du produit.
Il est raisonnablement envisageable de penser que si les LLMs arrivent aux mêmes performances pour
d’autres métiers, nous constaterons les mêmes effets.
3.2 Automatiser certains traitements de documents dans les processus de l’entreprise
Un grand nombre de nos processus en entreprise sont basés sur des documents en entrée. Les factures
pour les process de paiement, les appels d’offres pour choisir son prestataire, les notes de frais, les
déclarations de sinistre, les demandes d’achat interne, les emails entrants, les notes d’analystes d’un
produit financier, une information sur la santé d’une entreprise, un rapport d’analyses, …
L’ensemble de ces documents sont aujourd’hui insérés dans des process dans lesquels ils vont être
analysés par des humains et sur lesquels des décisions vont être prises permettant de poursuivre ou
clore les processus. Il est envisageable avec les LLMs d’obtenir tout ou partie de la décision qui vendrait
soit permettre de passer directement à l’étape suivante du processus soit de proposer une décision
argumentée ou un éventail de décisions à un humain en charge de la décision.
De nombreux processus ont déjà pu profiter de l’apport du Machine Learning de première génération.
Le traitement des factures ou le traitement des sinistres automobiles et habitations dans le secteur
assuranciel par exemple ont déjà démontré des gains de productivité substantiels. La maitrise des LLMs et de leurs capacités de NLP débouchera sur une généralisation de leur utilisation dans tous les processus de l’entreprise avec en ligne de mire une baisse des coûts fixes liés aux fonctions supports mais aussi une opportunité de renforcer la performance du core business
3.3 Les nouvelles offres
En venant changer le niveau d’interaction et en donnant la possibilité de fournir des solutions argumentées, les LLMs
vont permettre de créer de nouvelles offres de service mais aussi donner l’opportunité à de nouveaux acteurs de réintermédier plus facilement des chaines de valeurs
4. Conclusion
La sortie de ChatGPT marque une vraie révolution pour le monde de l’Intelligence Artificielle. En proposant des
solutions argumentées, le Machine Learning, qui nous avait déjà fait passer du Réactif au Prédictif, nous fait franchir
avec les LLMs, une nouvelle étape et entrer dans la nouvelle ère tant attendue du Prescriptif. De la même manière, en
démontrant de nouvelles capacités d’interaction proches du test de Turing et en démocratisant son accès, l’Intelligence Artificielle passe du jour au lendemain du silence feutré de nos Data Offices au sunlight de tous les médias réalisant en
quelques jours une prise de conscience, une acculturation et une adoption massive qu’aucune entreprise n’aurait jamais pu s’offrir.
La qualité des cinquante premières solutions mises sur le marché depuis l’ouverture de l’API en 2018 laisse présager
que la nouvelle phase d’innovation nous permettra une nouvelle fois d’augmenter la performance des entreprises
dans de nouveaux ordres de grandeur. Il est fort à parier que nous assisterons ensuite à une généralisation du
déploiement de ces nouveaux modèles et une accélération du déploiement financé par leur ROI.
ChatGPT nous a permis d’entrevoir les capacités de cette nouvelle génération d’outils NLP et intégrer la puissance des
algorithmes génératifs des LLMs. Les Directions Générales vont maintenant souhaiter disposer d’une compréhension
du potentiel réel de ces technologies afin d’en tirer le plus rapidement possible le maximum de création de valeur. Un
nouveau challenge pour les Chief Data Officers qui devront donner la possibilité à leur COMEX de rapidement être en
mesure de se projeter, faire les bons choix et ne pas laisser passer une opportunité qui les mettrait dans une position
délicate en termes de compétitivité.