45 % des professionnels interrogés ne vérifient pas l’exactitude des résultats produits par l’IA

 L’écart est frappant : alors que l’usage professionnel a bondi, passant de 54 % des employés en 2022 à 67 % en 2024, seulement 46 % des personnes interrogées globalement se disent prêtes à faire confiance aux systèmes d’IA. La confiance moyenne déclarée dans l’IA n’est que de 58 % !

Une étude mondiale menée par KPMG en collaboration avec l’Université de Melbourne met en lumière un paradoxe central dans l’adoption de l’IA : malgré un usage de plus en plus répandu, la confiance à l’égard de cette technologie reste modérée.

A l’origine de ce décalage, un écart important entre l’usage de l’IA et la formation ou la connaissance que les utilisateurs en ont. Seuls 39 % des personnes interrogées globalement déclarent avoir bénéficié d’une formation à l’IA. La connaissance est souvent limitée, 48 % l’admettent. À titre d’illustration, un tiers des personnes ignorent que l’IA est intégrée dans des applications courantes comme les réseaux sociaux, utilisés pourtant par 90 % d’entre elles.

On ne vérifie pas l’exactitude des résultats produits par l’IA

Si l’usage de l’IA en milieu professionnel est très élevé, touchant 73 % du panel global, il montre aussi de réelles lacunes. 45 % des professionnels interrogés ne vérifient pas l’exactitude des résultats produits par l’IA. Une majorité significative, 57 %, avouent même éviter de révéler l’usage de l’IA et présentent le contenu généré comme le leur…

Enfin, 53 % admettent une utilisation inappropriée de l’IA au travail, potentiellement contraire aux règles de l’entreprise ou augmentant son exposition aux risques -par exemple, le téléchargement de contenus protégés ou d’informations sensibles. Ces chiffres soulignent la nécessité criante de règles d’utilisation de l’IA dans le cadre de l’entreprise.

Un appel urgent à un cadre réglementaire renforcé

De toute évidence, analyse KPMG, le paysage réglementaire actuel ne répond pas aux attentes du public. Seulement deux personnes sur cinq globalement estiment que la réglementation et les lois actuelles régissant l’IA sont suffisantes.

La conviction qu’un cadre réglementaire pour l’IA est nécessaire est très forte et stable à 71 % au niveau mondial. Il existe un mandat public fort pour une régulation, qu’elle soit internationale (76 % favorables), nationale (69 % favorables), ou une co-régulation par les industriels et les autorités nationales (71 % favorables).

La confiance du secteur de la santé @

L’étude souligne que la confiance dans les systèmes d’IA est fortement liée au contexte et à la confiance dans l’organisation qui les déploie. Un domaine se détache particulièrement : la santé, où l’utilisation de l’IA bénéficie d’une confiance majoritaire (52 % globalement), étant l’application la plus fiable dans 42 des 47 pays étudiés. Ceci est attribué aux bénéfices perçus (précision accrue des diagnostics/traitements) et à la confiance élevée dans les professionnels de santé.

Cependant, la tendance générale de la confiance dans les systèmes d’IA est à la baisse, passant de 52 % en 2022 à 44 % en 2024 dans un sous-ensemble de pays, tandis que l’inquiétude a augmenté.