Faut-il avoir peur de l’intelligence artificielle générative ?

19 septembre 20237 min

L’intelligence artificielle générative charrie bien des fantasmes. Elle est effectivement porteuse de risques économiques et éthiques. Mais elle est aussi pleine d’opportunités. L’Association pour le management des risques et des assurances de l’entreprise (Amrae) veut dépassionner le débat en abordant le sujet de façon pragmatique. Tour d’horizon de ce qui s’annonce être un feuilleton.

Ceci est une légende Alt

“Le principal risque, c’est de ne pas y aller”, affirme Grégory Lalo, directeur risques et assurances du groupe Accor, quand on l’interroge sur les menaces et les opportunités portées par le développement de l‘intelligence artificielle générative. Cette technologie a explosé aux yeux du grand public en novembre 2022 avec le lancement du robot conversationnel ChatGPT.

Mais il ne s’agit là que de la partie émergée de l’iceberg. OpenAI développe et entraîne GPT depuis 2015 : sa quatrième version (GPT-4) a été mise sur le marché en mars 2023 et la version bêta de GPT-5 est d’ores et déjà testée par quelques milliers d’entreprises à travers le monde. Et OpenAI n’est pas le seul acteur ! Google, Microsoft, IBM sont d’autres acteurs, pour ne citer que ceux-là.

« La véritable innovation de ChatGPT, c’est celle de l’usage : l’IA se met à la portée du grand public. »

L’IA générative

Alors que l’intelligence artificielle (IA) se « contente » d’analyser et de classer des données, l’IA générative va plus loin en produisant, à partir de ces données, du contenu original. Il peut s’agir de texte (GPT et ChatGPT, Bard, Transformers.) ou d’images (Midjourney, Dall-E, Stable Diffusion), de contenus généralistes ou sectoriels : il existe en effet des IA génératives dans les domaines militaires et médicaux, par exemple.

« En réalité, l’IA générative est déjà très présente dans de nombreuses activités, observe Bénédicte Huot de Luze, fondatrice d’AI Risk Services. La véritable innovation de GPT, c’est celle de l’usage : l’IA se met à la portée du grand public. »

Potentiel économique

Cette innovation technologique recèle un potentiel économique considérable, évalué par le cabinet de conseil McKinsey à 13 400 Mds$ à l’échelle mondiale (dont 4 400 Mds$ pour la seule économie américaine). « Elle peut améliorer la productivité, la créativité et la personnalisation dans de nombreux secteurs, détaille le rapport publié en juin 2023. Par exemple, elle peut permettre de concevoir des produits innovants, de créer des contenus personnalisés pour les clients, de générer des scénarios de simulation pour la formation ou la planification, ou encore de synthétiser des données pour combler les lacunes ou augmenter la diversité. »

Le cabinet PricewaterhouseCoopers chiffre son potentiel de croissance pour l’économie américaine à 14 % à l’horizon 2030. Selon le Forum économique mondial, l’IA générative détruira certes 85 millions d’emplois dans les deux ans à venir, mais elle en créera dans le même temps 97 millions.

Ce n’est pas de la magie mais du codage

La prospective est un art difficile, les risk managers le savent bien. A fortiori pour une technologie qui se développe aussi rapidement : ChatGPT a conquis 100 millions d’utilisateurs en à peine cinq mois alors que Facebook a mis près de cinq ans pour y parvenir. Il convient donc de prendre ces prédictions avec les précautions d’usage.

Mais l’étude publiée par OpenAI en mars 2023 montre elle aussi que les outils d’IA générative pourraient avoir un impact significatif sur l’emploi : aux États-Unis, 80 % des travailleurs devraient voir au moins 10 % de leurs tâches évoluer de ce fait là. Pour 19 % des travailleurs, cette proportion montera à 50 %.

Faut-il avoir peur de l’IA générative ? Nous avons posé la question à ChatGPT qui n’élude pas les principales craintes exprimées par le grand public : l’intelligence artificielle pourrait « devenir incontrôlable », « dépasser l’intelligence humaine » et se transformer en « force malveillante cherchant à dominer l’humanité », répond le robot.

La réalité est bien différente. « Ce n’est pas de la magie mais du codage », estime Éric Gaubert, directeur adjoint, innovation et partenariats de RGA France (réassureur mondial en assurance de personnes). À ses yeux, il est temps de dépassionner le débat et de ramener l’IA à ce qu’elle est : « D’abord un outil d’automatisation de tâches répétitives et chronophages sans sous-estimer bien entendu, les biais induits », estime-t-il.

De multiples risques

Elle n’en reste pas moins porteuse de risques économiques, sociaux et sociétaux. « Au plan sociologique, une transformation aussi rapide peut créer une rupture générationnelle », prévient Okay Güneş, économiste et data scientist.

Directeur de la communication, du marketing et de la performance commerciale de Worldline (services et solutions de paiement), Pascal Mauzé attribue la puissance du mouvement des gilets jaunes à la fracture numérique. « Avec le développement de l’intelligence artificielle, les cols blancs seront eux aussi touchés. Ils n’y sont pas préparés et pourraient se sentir abandonnés », prévient-il.

Autres risques pointés par tous les risk managers que nous avons interrogés : la protection des données d’un côté, les cyberattaques dopées à l’IA de l’autre. Dans le même ordre d’idées, Guillaume Bouny, risk manager de Worldline, insiste également sur les risques liés à la protection intellectuelle : « GPT génère des images ou des informations à partir d’autres images et d’autres informations sans se soucier de savoir si elles sont libres de droits. Attention aux jeunes embauchés qui, durant leurs études, auront travaillé en mode projet sans aucune notion de propriété intellectuelle. Il faudra très vite leur expliquer que ce n’est pas possible en entreprise ! »

« Les études finissent par montrer que les effets positifs sont supérieurs aux risques. À condition de savoir exploiter les opportunités en mesurant les risques. C’est précisément le cœur de métier des risk managers. »

Risques éthiques

Par ailleurs, l’IA générative repose sur des algorithmes qui peuvent être biaisés. Ces biais peuvent provenir des données : les biais de sélection, de représentation ou les biais historiques peuvent fausser les résultats. Ils peuvent aussi être introduits par l’utilisateur lui-même, qui peut orienter sa question et sélectionner les réponses, avant d’être amplifiés par le modèle prédictif. Si ces erreurs ne sont pas détectées, elles peuvent fonder de mauvaises décisions.

Mais surtout, l’IA soulève des questions éthiques. Dans une tribune publiée en janvier 2023 dans Le Monde, la spécialiste de l’éthique du numérique, Laurence Devillers pointe plusieurs dangers : la difficulté à « déterminer si un texte a été produit par un humain ou ChatGPT » et « la possibilité d’inonder le monde de milliards de fake news », d’amplifier la désinformation et la manipulation de masse.

Des risques réels aux yeux d’Okay Güneş, mais que le chercheur en économie comportementale et en data science souhaiter relativiser. « L’émergence des nouvelles technologies a toujours soulevé de nombreuses questions. Les études finissent pourtant par montrer que les effets positifs – en matière de gains de productivité notamment – sont supérieurs aux risques. À condition, toutefois, de savoir exploiter les opportunités en mesurant les risques. C’est précisément le cœur de métier des risk managers. »

Faites le test : demandez à ChatGPT quels sont les risques opérationnels et les enjeux stratégiques liés à son utilisation en entreprise. « Au plan opérationnel, il cite en premier lieu la confidentialité et la sécurité des données, observe Sylvie Mallet, présidente de la commission ERM 360° de l’Amrae et directrice des risques de Deloitte Europe. Cette intelligence artificielle se nourrit des questions qui lui sont posées : apparemment, les experts en sécurité informatique donnent encore le ton ! Pour ma part, j’aurais aussi cité les risques de plagiat et de fraude à la propriété intellectuelle. Mais j’aurais surtout insisté sur les deux risques les plus importants à mes yeux : la dépendance technologique à cet outil et l’employabilité des salariés. »

Ce qui nous conduit tout droit aux enjeux stratégiques de ChatGPT : « Le premier risque stratégique est de ne pas y aller », répond Sylvie Mallet. Car l’intelligence artificielle est porteuse d’opportunités considérables. « Ses risques sont réels, mais ils me semblent très liés à l’activité et au modèle d’affaires des entreprises : risques de désintermédiation, de conformité, de fraude, d’image, de perte de compétences. C’est clairement une innovation disruptive, conclut-elle.


Article extrait du n°37 d’Atout Risk Manager.

---

Les plus lus…

Inscrivez-vous
à notre
newsletter

Recevez toutes les actualités et informations sûreté, incendie et sécurité toutes les semaines.