L’ère data-driven touche à sa limite : face à la complexité du réel, l’intelligence artificielle impose de redonner place à l’humain dans la décision.

Pendant quinze ans, la foi dans la donnée a remplacé le sens critique. L’intelligence artificielle oblige aujourd’hui les entreprises, les institutions et les citoyens à rouvrir le débat : que vaut une décision sans regard humain ?

L’illusion data-driven : quinze ans de foi dans la neutralité des chiffres

Depuis le début des années 2010, la promesse d’une société data-driven a séduit tous les secteurs : entreprises, administrations, institutions culturelles.
Le modèle s’appuyait sur une conviction : les données massives permettraient des décisions objectives et optimales, en transcendant les limites humaines.
Mais cette foi dans la neutralité des chiffres a produit son propre dogme : celui du fétichisme de la donnée, décrit par Evgeny Morozov comme l’un des symptômes du solutionnisme technologique.

L’idée que “la donnée parle d’elle-même” a masqué les choix idéologiques sous-jacents : ce qui est mesuré devient ce qui compte.
Les chiffres ont remplacé le débat, les indicateurs sont devenus des finalités, et les biais, quand ils apparaissent, sont souvent justifiés plutôt que corrigés.
Ce glissement méthodologique a créé une illusion d’objectivité, tout en appauvrissant la décision humaine.


Des données désordonnées et des décisions fragiles

L’un des constats les plus récurrents dans la littérature spécialisée est la pauvreté technique des données utilisées dans les organisations.
Les promesses du Big Data reposaient sur l’abondance et la précision, mais les experts observent au contraire une désorganisation structurelle : données incomplètes, redondantes, obsolètes, ou éparpillées dans des formats incompatibles.
Selon la société Doble Engineering, près de 80 % du temps des projets de data management est consacré non à l’analyse, mais au nettoyage et à la correction des données sources.

Ce constat rejoint celui des chercheurs en ingénierie publique : nous ne manquons pas de données, nous manquons de qualité et de gouvernance.
Le paradoxe est clair : plus les données s’accumulent, plus leur interprétation devient incertaine.
Ce que l’on croyait être un gisement d’objectivité devient une matière friable, où les biais techniques et cognitifs prolifèrent.


Le biais de confirmation : la donnée comme justification

Lorsqu’un décideur se trouve face à un volume de données chaotique, il cherche instinctivement à confirmer ses intuitions préalables.
Ce biais de confirmation, bien documenté en psychologie cognitive, transforme la donnée en outil de légitimation plutôt qu’en base de réflexion.
Les algorithmes de recrutement, de notation ou de performance sont souvent utilisés pour valider des choix déjà effectués, en leur donnant une apparence de rigueur scientifique.

L’illusion data-driven consiste à croire que les chiffres corrigent les biais humains. En réalité, ils peuvent les habiller de rationalité.
Le danger n’est pas dans la donnée elle-même, mais dans l’usage dogmatique que l’on en fait.
C’est cette dérive qu’analyse Jean-Marc Blancherie dans le cadre des formations Evalir : la donnée devient performative, elle “crée sa propre vérité”, jusqu’à occulter le jugement critique.


Les armes de destruction mathématique : quand les modèles amplifient les inégalités

La mathématicienne Cathy O’Neil, dans Weapons of Math Destruction (2016), a décrit comment certains modèles algorithmiques deviennent de véritables “armes de destruction mathématique” (WMDs).
Trois caractéristiques en font la dangerosité :

  • l’opacité, qui empêche les citoyens de comprendre les décisions les concernant ;

  • l’échelle, qui multiplie les erreurs à grande vitesse ;

  • le dommage, qui touche surtout les populations les plus vulnérables.

L’exemple des algorithmes prédictifs de criminalité (tels que PredPol) illustre ce mécanisme.
Les modèles s’appuient sur des données policières historiques, donc déjà biaisées par des pratiques de surveillance disproportionnées.
Résultat : les quartiers déjà surreprésentés dans les données deviennent encore plus surveillés, alimentant une boucle de rétroaction où la donnée valide le préjugé.

Comme le souligne O’Neil, l’absence de transparence alimente une irresponsabilité diffuse : “le modèle décide”, donc personne n’est responsable.


Quand la culture et la médecine subissent le lissage algorithmique

L’idéologie data-driven ne se limite pas à l’économie.
Dans les industries culturelles, les plateformes de streaming exploitent des milliards de données d’usage pour prédire les préférences des spectateurs.
Résultat : des œuvres statistiquement parfaites, calibrées pour plaire, mais vidées de singularité.
L’algorithme optimise la durée de visionnage, pas la valeur esthétique.

Cette standardisation des contenus crée ce que le rapport Evalir nomme un “lissage culturel” : la diversité créative recule, les stéréotypes se consolident.
Le documentaire Coded Bias (Shalini Kantayya, 2020) a montré comment ces mécanismes de recommandation peuvent amplifier les représentations discriminatoires, en reproduisant inconsciemment les biais du passé.

En médecine, la logique est similaire : les systèmes d’IA diagnostiquent avec une précision remarquable dans les cas standards, mais échouent dans la complexité du réel.
Les comorbidités, les exceptions et les dimensions subjectives de la maladie échappent à la logique statistique.
Les chiffres détectent un motif, mais l’humain comprend une situation.


Vers une humilité méthodologique : de la donnée au discernement

Le principal enseignement de cette critique est simple : la donnée n’est pas le réel.
Elle en est une projection partielle, orientée, conditionnée par les capteurs, les modèles et les intentions de ceux qui la construisent.
Il ne s’agit donc pas de rejeter la donnée, mais d’apprendre à la lire autrement.

Marianne Dabbadie, docteure en sciences de l’information et de la communication, souligne dans ses travaux sur l’évaluation sémantique (projet Evalir) la nécessité d’une numératie critique : savoir comment un modèle fonctionne, quelles données il exclut, et quelles hypothèses il suppose.
Cette approche vise à former non pas des techniciens, mais des citoyens éclairés du numérique, capables de situer les chiffres dans un cadre de sens.


L’approche hybride : confronter, non fusionner

Face aux limites du modèle purement quantitatif, une voie s’impose : l’approche hybride.
Elle consiste à croiser les méthodes — statistiques et qualitatives — afin de replacer les chiffres dans leur contexte humain.

Les études de terrain, les entretiens ethnographiques et les observations de terrain ne contredisent pas la donnée : elles la complètent.
Elles permettent d’identifier les angles morts du numérique et d’éviter la réduction du réel à une série d’indicateurs.

Cette approche Insight-Informed, défendue par Evalir, repose sur trois principes :

  • confronter les chiffres aux vécus ;

  • documenter les limites de chaque modèle ;

  • valoriser la pluralité des intelligences — techniques, humaines et sociales.


Repenser la gouvernance de la donnée

La gouvernance de l’intelligence artificielle ne se résume pas à la régulation technique.
Elle suppose un changement culturel dans la manière de produire et d’interpréter les données.

Trois leviers structurants se dégagent :

  1. L’audit éthique, pour évaluer les effets sociaux et les biais de tout modèle algorithmique à fort impact.

  2. Le droit à l’explication, pour garantir la compréhension des décisions automatisées affectant les citoyens.

  3. La transparence documentaire, afin que les hypothèses, proxies et limites soient connus et discutables.

Cette exigence rejoint les principes de l’AI Act européen (2024), qui place la responsabilité et la traçabilité au cœur de l’usage public de l’intelligence artificielle.


Conclusion : de la donnée à l’intelligence du réel

Le mythe du tout-data s’effondre face à la complexité du monde.
L’intelligence artificielle n’est pas une menace pour la décision humaine ; elle en souligne la valeur.
La vraie transformation numérique n’est pas quantitative, mais épistémologique : elle consiste à apprendre à penser avec les machines sans leur déléguer le sens.

Le futur des organisations ne dépendra pas du volume de données collectées, mais de leur qualité interprétative.
Les sociétés capables d’allier analyse, expérience et responsabilité construiront une intelligence véritablement collective, où la donnée éclaire sans dominer.

.

Téléphone

07 70 38 84 34

Addresse

25 bis rue de Cahors, 24200 Sarlat, France

Découvrez Nos Cours Innovants

Plongez dans le monde fascinant de l’intelligence artificielle avec nos cours adaptés aux jeunes esprits curieux. Inscrivez-vous dès aujourd’hui pour commencer votre aventure éducative avec Formation Intelligence Artificielle.

.tablepress-id-1 td img { width: 120px !important; height: auto !important; max-height: 120px !important; object-fit: contain; display: block; margin: 0 auto; }