Source de productivité mais parfois imprévisible, l’intelligence artificielle générative compte autant d’avantages que d’inconvénients. Après l’émerveillement des premiers instants serait donc venue l’heure des questions sur les risques que ce genre d’outils comportent. Quelles sont les craintes que ChatGPT et ses confrères suscitent parmi les employés français ? Comment les entreprises peuvent-elles les appréhender ? Des questions auxquelles répond le second volet de notre étude dédiée à l’usage de l’IA générative au travail.
Dans cet article
- Quid de l’utilisation de ChatGPT par les employés sondés ?
- L’IA générative est-elle considérée comme une menace pour nos emplois ?
- Quels sont les enjeux éthiques et les dangers de l’intelligence artificielle générative que doivent affronter les entreprises ?
- Comment les entreprises peuvent-elles affronter les risques de l’intelligence artificielle générative ?
“Je ne peux pas prédire l'avenir, mais je peux affirmer que l'intelligence artificielle transforme déjà un grand nombre d’industries et d’emplois.”, voilà l’une des réponses que formule ChatGPT (article en anglais) quand on lui demande si l’intelligence artificielle (IA) pourrait un jour nous remplacer. Le retour de flamme de ce débat dans les médias, depuis l’introduction de la plateforme star d’OpenAI en fin d’année dernière, est le signe que l’intelligence artificielle a atteint un pallier supplémentaire. Capable de supplanter l’humain dans des tâches répétitives et manuelles, l’IA pourrait désormais le surpasser dans la réalisation de missions plus complexes et intellectuelles comme la rédaction d’un rapport ou la mise en place d’une stratégie d’entreprise.
Alors qu’ils sont 70 % à l’utiliser dans le cadre de leur activité professionnelle, les employés de notre panel perçoivent-ils les exploits de ChatGPT nécessairement d’un bon œil ? Quel usage en font-ils ? Expriment-ils des craintes vis-à-vis de cet outil et de l’IA générative dans son ensemble ? Ont-ils le sentiment que cette technologie peut représenter à terme une menace pour leur emploi ? Que doivent savoir les entreprises des risques de l’intelligence artificielle générative et comment peuvent-elles les aborder ? Telles sont les problématiques que nous traitons dans le second volet de notre enquête menée auprès de 536 salariés français ayant régulièrement recours à l'intelligence artificielle générative au travail. Une méthodologie complète est disponible à la fin de cet article.
Quid de l’utilisation de ChatGPT par les employés sondés ?
Un employé interrogé sur deux utilise ChatGPT quotidiennement
Au total, 4 milliards de visites lors des quatre premiers mois suivant son lancement, 100 millions de visiteurs uniques à la fin du mois de janvier… ChatGPT est bien ce que l’on peut appeler un phénomène mondial auquel les employés français n’ont pas échappé. Sans surprise, l’agent conversationnel, développé par l’entreprise OpenAI est la plateforme qui jouit d’un plus grand succès parmi notre panel de salariés utilisant l’IA générative au travail, 70 % affirmant y avoir recours. Et ce loin devant un autre générateur de texte JasPer (plébiscité par 15 %).
En permettant notamment de produire des écrits structurés rapidement, ChatGPT est-il devenu un outil indispensable dans le cadre professionnel ? Il semblerait que cela soit le cas pour ceux qui disent l’utiliser. En effet, 51 % en font usage quotidiennement.
Par ailleurs, 31 % des adeptes de ChatGPT déclarent l’utiliser plusieurs fois par semaine. En plus de la rédaction d’articles complets sur n’importe quel sujet soumis, qui est sa fonction la plus populaire, à quelles autres fins cet outil est-il particulièrement utilisé ?
Des contenus générés divers et variés, pas systématiquement vérifiés
Utilisé par 42 % de personnes interrogées pour la rédaction de textes complets, ChatGPT aide également à remplir d’autres missions. Principalement, l’analyse de données (pour 31 %), la création de présentations (27 %), la gestion de projet (27 %), la génération d’idées (25 %) et la rédaction d’e-mails (24 %).
Les résultats de ces requêtes en tout genre ont-ils été satisfaisants ? La réponse est “oui” pour une écrasante majorité, 94 % estimant qu’ils étaient “probants” ou “très probants”. Est-ce à dire qu’ils ont été vérifiés par les employés les ayant soumises ? Encore un “oui” pour 98 % du public adepte de ChatGPT, cependant, celui-ci s’avère un peu plus timide. En effet, si 47 % d’entre eux affirment relire chaque réponse générée soigneusement avant de s’en servir, 48 % ne le font pas systématiquement pour tous les contenus et 3 % ne les contrôlent que de temps à autre.
À quels risques une entreprise s’expose-t-elle en utilisant ChatGPT sans en vérifier systématiquement le contenu ?
Si le contenu généré par ChatGPT n’est pas soigneusement vérifié, une entreprise peut être susceptible de partager en externe et en interne des écrits dont la qualité est discutable. Ce qui peut non seulement nuire à sa crédibilité mais aussi lui faire prendre de mauvaises décisions. Aussi les risques potentiels sont-ils d’utiliser :
- un contenu fondé sur des données obsolètes : la version gratuite de ChatGPT dispose, à l’heure actuelle, d’une base de données qui n’a pas été mise à jour depuis septembre 2021,
- un contenu délesté de sources : la base de données de ChatGPT est vaste et se compose de sources multiples qui ne sont pas citées. Ce manque de transparence peut nuire à la crédibilité du résultat généré et donc à l’image de l’entreprise qui l’aura partagé, et peut même poser la question du respect des droits d’auteur, ChatGPT pouvant reproduire à l’identique des passages d'oeuvres ayant alimenté sa base de connaissances,
- un contenu peu cohérent voire erroné : il arrive que ChatGPT se contredise dans un même texte produit, pire, qu’il génère des informations complètement fausses et inventées, notamment quand sa base de connaissances n’est pas assez fournie sur un sujet donné ; des manquements qui peuvent, eux aussi, porter atteinte à l’image de l’entreprise qui les aura utilisées,
- un contenu superficiel : ChatGPT est tout à fait apte à traiter en surface un sujet donné mais il éprouve parfois des difficultés à nuancer ses réponses et aurait tendance à simplifier des thématiques complexes en évitant de rentrer dans les détails.
Un public conscient des avantages et des risques de ChatGPT
Si ChatGPT est utilisé régulièrement par une large partie des employés interrogés, cela suppose qu’ils en retirent certains avantages relatifs à l’optimisation de leur travail. Les principaux étant un gain de temps (pour 45 % des employés utilisant ChatGPT) et une amélioration des processus de travail (44 %). Cependant, ces bénéfices n’éclipsent pas les inconvénients et les inquiétudes qui en découlent, la principale étant une dépendance excessive à cette plateforme pour réaliser certaines tâches (36 %).
Aussi, ChatGPT pose-t-il des problèmes éthiques que toute entreprise qui en fait usage doit affronter. Des appréhensions qui ne sont pas propres à cet outil mais à toute la famille des IA génératives. En effet, la surmédiatisation de cette technologie ces derniers mois a notamment relancé de plus belle l’éternel débat sur les évolutions de l’intelligence artificielle et les risques qu’elle suppose pour l’emploi.
L’IA générative est-elle considérée comme une menace pour nos emplois ?
Du contenu qui peut rivaliser avec celui produit par les humains ?
“ChatGPT : quelles conséquences va-t-il avoir sur nos emplois ?”, “ChatGPT menace-t-il nos emplois ?”… Des questions sur le même thème qui foisonnent dans la presse et que l’on peut considérer pertinentes tant ChatGPT a pu représenter une révolution lors de son introduction en novembre 2022. Et ce ne sont pas ses évolutions de mars dernier qui couperont court au débat.
Les professionnels initiés que nous avons interrogés estiment-ils pour autant que la plateforme d’OpenAI peut, à l’heure actuelle, créer du contenu qui rivalise avec les créations humaines ? Il apparaît que 90 % sont de cet avis mais à des degrés différents. En effet, parmi eux, 28 % sont tout à fait d’accord avec cette hypothèse quand 62 % émettent quelques réserves en estimant que cela est vrai jusqu’à un certain point.
Qu’en est-il de l’IA générative dans son ensemble ? Si 33 % n'ont pas d’opinion précise sur la question et 17 % sont sceptiques, 50 % de l’ensemble des personnes sondées sont “d’accord” ou “tout à fait d’accord” avec l’idée que le contenu généré par l’IA puisse surpasser celui imaginé par des êtres humains.
Si l’intelligence artificielle générative est capable de rédiger des textes structurés semblables à des écrits humains, ses productions comportent toutefois des différences notables avec ceux-ci, les plus communes étant :
- un manque de compréhension du contexte et des nuances,
- un défaut de profondeur et de complexité,
- une absence d’intelligence émotionnelle.
C’est pourquoi il est recommandé aux entreprises en faisant usage de systématiquement vérifier les résultats et d’apporter des modifications ou ajouts personnels.
Le remplacement d’employés, une des craintes principales des personnes sondées
On peut imaginer, sans avoir peur de se tromper, que l’automatisation que suppose l’IA générative pourrait, à terme, faire disparaître certains métiers. Une conséquence possible dont seraient conscients la plupart des employés sollicités pour notre enquête. En effet, 44 % perçoivent le remplacement d’emplois comme préoccupation éthique principale liée à cette technologie.
Par ailleurs, 65 % jugent que l’IA générative pourrait les remplacer dans leur travail dès aujourd’hui à hauteur de 11 à 30 % de leurs tâches, quand 18 % considèrent que cette part pourrait osciller entre 31 et 50 % .
Il est à souligner que, toutefois, rares sont les personnes sondées à estimer cette proportion à plus de 50 %. Cela serait-il une preuve, qu’à l’heure actuelle, les employés ne voient pas l’IA générative comme une menace imminente, mais comme un bras droit les assistant dans le réalisation d’une partie de leur travail ? En effet, compte tenu des capacités actuelles de cette technologie, on peut considérer qu’elle tend, à ce jour, à changer la manière de travailler en permettant de passer moins de temps sur les tâches annexes ou répétitives, et à se concentrer davantage sur celles considérées comme plus complexes.
Pour les entreprises, l’automatisation de certaines missions grâce à l’IA générative pourrait signifier entre autres :
- une réduction des coûts car les processus chronophages et nécessitant plus de ressources ont été éliminés,
- une plus grande inventivité car les employés disposent de plus de temps pour remplir des missions plus créatives et innovantes,
- un plus grand avantage compétitif face aux organisations du même secteur n’ayant pas introduit l’IA générative dans leurs méthodes de travail.
Cependant, la part de travail remplacée estimée par les employés pourrait, sans doute, augmenter à mesure des évolutions futures de l’IA générative, ce qui pourrait expliquer pourquoi le remplacement d’emploi est la principale préoccupation des salariés sondés. Outre cette problématique, quels sont les autres risques éthiques pointés du doigt par notre panel ?
Quels sont les enjeux éthiques et les dangers de l’intelligence artificielle générative que doivent affronter les entreprises ?
Une dépendance excessive à l’IA générative
Comme cité plus haut, 36 % des employés faisant usage de ChatGPT craignent une dépendance excessive à cette plateforme, sans doute favorisée par l’apparente facilité à l’utiliser. Une préoccupation associée à l’intelligence artificielle dans son ensemble. En effet, 38 % de tous les professionnels sondés redoutent que son utilisation devienne une addiction. Un phénomène qui les effraie car il pourrait probablement les priver d’une réflexion propre ainsi que leur faire perdre leur capacité d’autogouvernance.
Pour les entreprises, le risque de dépendre de l’IA générative serait de dévoiler un contenu formaté, sans supplément d’âme. Ainsi, un manque de personnalité, un défaut d’esprit critique et de profondeur sont autant de qualificatifs qui peuvent être attribués aux organisations qui se reposent uniquement sur cette technologie pour produire du contenu. Ces possibles critiques peuvent avoir des répercussions négatives sur l’image de marque. D’ailleurs, l’impact sur la réputation est l’un des risques auxquels s’exposent les entreprises qui utilisent l’intelligence artificielle générative, une menace reconnue par 23 % des répondants.
Aussi les dangers liés à la dépendance se doivent-ils d’être étudiés avec précaution non seulement par les salariés, mais aussi par la direction, en mettant notamment en place un règlement clair sur la manière dont l’IA générative doit être utilisée et les bonnes pratiques à adopter pour qu’elle ne remplace pas, mais complète au contraire la réflexion humaine.
Des outils existent pour favoriser la réflexion et la prise de décision parmi les équipes ; ils peuvent en outre compléter l’usage de logiciels d’IA générative. En voici quelques-uns issus de deux catégories :
- les logiciels de cartes mentales permettent aux utilisateurs d’organiser des sessions de brainstorming, de noter leurs idées et de classer celles-ci par sujet,
- les logiciels d’aide à la décision permettent de hiérarchiser les objectifs, les projets ou les idées afin d’améliorer la gestion et la qualité du travail.
Des risques relatifs à la vie privée et la confidentialité des données
La plupart des employés sondés estiment que les principaux risques auxquels s’exposent les entreprises qui utilisent l’IA générative sont liés à la cybersécurité (40 %) et à la protection de la vie privée (38 %). Des problématiques qui posent également des contraintes déontologiques aux yeux de notre panel. En effet, nombreux sont ceux à percevoir comme des préoccupations éthiques majeures les thématiques relatives à la vie privée et à la confidentialité des données (37 %) et le manque de transparence dans l’utilisation des données (32 %).
Ces dangers et problèmes éthiques se doivent d’être pris en compte par les entreprises tant on ignore, à l’heure actuelle, comment les outils d’intelligence artificielle générative tels que ChatGPT utilisent, par la suite, les informations que l’on partage avec eux. Il est important de garder à l’esprit que ces systèmes s’appuient sur des données qu’ils peuvent puiser non seulement sur Internet mais aussi auprès de leurs utilisateurs. Ainsi, cela peut supposer des risques pour la confidentialité des données des entreprises communiquées, qu'il s'agisse d’informations sensibles internes ou de clients, ces dernières pouvant être divulguées, sans consentement explicite, avec des tiers. Aussi faudrait-il partir du principe que toute information introduite sur ce type de plateforme est susceptible de devenir publique.
IA générative et hameçonnage : comment les entreprises peuvent-elles se protéger ?
L'intelligence artificielle générative suggère également des risques liés à la confidentialité des données provenant de l’extérieur, l'hameçonnage (ou phishing) en fait partie. Il s'agit d’une technique de fraude sur Internet qui consiste à leurrer un utilisateur, en se faisant passer pour un organisme de confiance, pour qu’il transmette des informations personnelles. Ce procédé est devenu plus sophistiqué avec l’IA générative qui permet de créer des messages encore plus convaincants et personnalisés. Voici quelques conseils pour se prémunir :
- proposer à ses employés des formations de sensibilisation à la cybersécurité, qui veillent notamment à inciter les employés à rester vigilants face à des messages non sollicités tentant de soutirer des renseignements personnels,
- installer des outils d’authentification multifacteur pour vérifier et confirmer l’identité des utilisateurs ainsi que des logiciels de cybersécurité afin de se protéger contre le vol de données,
- se renseigner constamment sur les évolutions de l’IA générative et les fraudes possibles associées (comme le deepfake), et dispenser des formations régulières sur cette thématique.
Un mauvais usage du contenu généré
36 % des employés interrogés considèrent que le manque d’explicabilité constitue un risque important auquel s’expose une entreprise qui utilise l’intelligence artificielle générative. Une appréhension qui peut sembler légitime, les éléments pris en compte par les systèmes d’IA générative pour la production d’un résultat n'étant pas toujours intelligibles. Aussi cela peut-il rendre difficile pour l’utilisateur d’expliquer et de justifier un contenu ou une décision obtenus par le biais de ces outils.
En plus du manque d'intelligibilité, l’IA générative présente d’autres limites de taille comme la génération de contenus erronés et biaisés. 25 % des adeptes de ChatGPT sondés ont justement pour inquiétude la diffusion d’informations inexactes par des utilisateurs qui pensent que ses réponses sont incontestables. Pire encore, l’IA générative tendrait à entretenir des préjugés et des discriminations, un aspect dont auraient conscience 13 % des répondants seulement. Tous ces inconvénients posent le problème d’un mauvais usage du contenu généré par cette technologie, cette problématique étant perçue comme une préoccupation éthique par 33 % de notre panel.
Aussi est-il recommandé aux entreprises de ne pas prendre pour argent comptant les réponses des outils de l’IA générative et de veiller à toujours apporter des corrections aux contenus générés en appliquant des principes de logique, de pertinence, de véracité, d’objectivité et de conformité avec les lois en vigueur et les politiques de l’entreprise.
Comment les entreprises peuvent-elles affronter les risques de l’intelligence artificielle générative ?
Les résultats de notre étude tendent à démontrer que, malgré des avantages notables, la plupart des employés associent à ChatGPT et aux outils d’IA générative dans leur ensemble des inconvénients, dont des problèmes éthiques majeurs. Ces derniers sont principalement un potentiel remplacement d’emplois, une dépendance excessive à cette technologie, des risques sur la protection des données et une possibilité de faire un mauvais usage du contenu généré.
Des défis auxquels doivent faire face les entreprises afin que l’intelligence artificielle générative ne nuise pas à leur croissance. Mettre en place des règlements internes, former les équipes aux évolutions de l’IA, vérifier systématiquement les contenus générés, les corriger, les personnaliser et les considérer comme un complément à la réflexion (et non un substitut) sont autant de bonnes pratiques qui peuvent aider les organisations à les relever.
Méthodologie
Pour collecter les données de ce rapport, nous avons mené une enquête en ligne en juin 2023 regroupant la participation de 536 professionnels. Les critères de sélection des participants étaient les suivants :
- Réside en France
- Âgé(e) entre 18 et 65 ans
- Employé(e) à temps plein ou à temps partiel dans une entreprise de 1 à plus de 10 000 personnes
- Utilise systématiquement un ordinateur pour réaliser ses tâches
- A recours à l’intelligence artificielle générative au moins plusieurs fois par mois dans le cadre de son travail