Les conférences d'EVALIR Prenez contact

9 + 9 =

L'Intelligence Artificielle au Cœur des Territoires : Catalyseur d'Innovation et de Transformation Économique
L’intelligence artificielle (IA) n’est plus une perspective lointaine ; elle est une force motrice qui reconfigure activement la gouvernance territoriale et la compétitivité économique. Pour les territoires, cette révolution technologique représente bien plus qu’un simple enjeu d’optimisation ; elle est une opportunité historique de réinventer la gouvernance, de stimuler l’innovation locale et de renforcer la cohésion sociale. Ce livre blanc a pour objectif de fournir aux acteurs publics, aux entreprises et aux citoyens une analyse stratégique des opportunités et des défis posés par l’IA. En explorant les concepts clés d’acculturation, d’innovation locale et de coopération, nous chercherons à éclairer les voies vers une adoption réussie, éthique et souveraine de l’intelligence artificielle au service du développement territorial.
1. Fondations : Vers une Culture Partagée de l’IA
L’adoption efficace de l’intelligence artificielle au sein d’un territoire ne peut se résumer à une simple acquisition technologique. Elle repose avant tout sur une démarche stratégique d’acculturation, visant à construire une compréhension partagée de ses enjeux. La maîtrise technique, bien que nécessaire, est insuffisante si elle n’est pas complétée par une appropriation culturelle, cognitive et sociale. C’est en développant une culture commune de l’IA que les acteurs locaux pourront en saisir tout le potentiel et en maîtriser les risques, posant ainsi les fondations d’une transformation responsable et durable.
1.1. La Littératie de l’IA : Au-delà de la Technique
La maîtrise de l’IA à l’échelle d’un territoire implique de développer une nouvelle forme de littératie : la capacité à « lire, écrire et penser avec l’IA ». Cette compétence va bien au-delà de la simple utilisation d’outils. Elle consiste à développer un esprit critique aiguisé pour évaluer les informations générées, mais aussi à maîtriser l’art subtil du dialogue avec les systèmes intelligents. Apprendre à « bien dialoguer avec l’IA » devient une compétence fondamentale, qui passe par une compréhension fine des différents niveaux de maîtrise des prompts. « Penser avec l’IA » signifie opérer un basculement stratégique : cesser de voir l’IA comme un simple exécutant pour la mobiliser comme un véritable partenaire cognitif. Il s’agit de l’utiliser pour co-créer, challenger ses propres hypothèses et explorer des scénarios alternatifs, une compétence essentielle pour la planification stratégique et la gouvernance territoriale.
1.2. L’Approche Centrée sur l’Humain : Une Condition de Confiance
Pour que l’IA soit acceptée et adoptée par les citoyens et les organisations, son développement doit impérativement suivre une approche centrée sur l’humain. Il s’agit de « penser la technologie autrement », non pas comme une fin en soi, mais comme un moyen au service des objectifs et des valeurs de la société. Cette vision place l’humain au cœur du processus de conception et de déploiement, garantissant que les systèmes d’IA sont alignés avec les valeurs humaines fondamentales. C’est cette condition qui permet de bâtir la confiance, un prérequis indispensable à l’intégration harmonieuse de l’intelligence artificielle dans le service public, l’économie et la vie citoyenne.
Cette culture partagée et humaniste de l’IA est le socle sur lequel peut s’édifier une véritable stratégie d’innovation au sein des territoires.
L'IA comme Levier de l'Innovation Territoriale et de la Gouvernance
Une fois les fondations culturelles établies, l’intelligence artificielle devient un puissant outil stratégique pour le développement et la gouvernance des territoires. Son potentiel ne réside pas seulement dans l’automatisation des tâches, mais dans sa capacité à augmenter l’intelligence collective, à améliorer la prise de décision publique et à renforcer les synergies entre les acteurs publics, les entreprises locales et les citoyens, ouvrant la voie à une gouvernance plus agile et collaborative.
2.1. Moderniser l’Action Publique Locale
L’IA doit être mobilisée comme un levier majeur pour le développement territorial. En analysant des données complexes, elle permet aux collectivités de prendre des décisions plus rapides et mieux informées. Concrètement, cela signifie pouvoir simuler en temps réel l’impact d’un nouveau plan d’urbanisme sur les flux de transport ou optimiser la distribution d’énergie en fonction des prévisions météorologiques et des habitudes de consommation. Toutefois, le succès de son déploiement dépend étroitement de l’acculturation des agents et des élus. La mobilisation active des acteurs locaux, soutenue par des initiatives nationales comme celles de l’Agence Nationale de la Cohésion des Territoires, est un facteur clé pour garantir que ces outils soient compris, maîtrisés et mis au service d’une action publique plus efficace.
2.2. Catalyser l’Intelligence Territoriale : Coopération et Synergies
Au-delà de la modernisation administrative, l’IA doit agir comme un catalyseur d’intelligence territoriale. Des plateformes comme EVALIR illustrent ce rôle en agissant comme un tiers de confiance numérique. Elles permettent le partage sécurisé et éthique de données entre acteurs publics et privés pour résoudre des défis communs, comme anticiper les besoins en compétences sur un bassin d’emploi ou optimiser la gestion des ressources en eau à l’échelle régionale. L’IA devient ainsi le moteur d’une synergie créatrice, renforçant la capacité du territoire à innover et à s’adapter de manière collective.
Cette innovation, portée par une gouvernance renouvelée, est indissociable de la transformation profonde du tissu économique qui l’accompagne.

Ouverture et présentation

Madame Marianne Dabbadie est présentée comme experte en intelligence artificielle, chercheuse associée au laboratoire LHUMAIN (Université Paul-Valéry – Montpellier) et fondatrice d’Évalir, entreprise basée à Sarlat, spécialisée dans l’IA et le management. Elle travaille avec les collectivités et avec l’Éducation nationale. Elle a également été sollicitée par la Commission des affaires économiques de l’Assemblée nationale pour contribuer à une réflexion sur l’impact de l’IA sur les métiers à court, moyen et long terme. La séance prévoit quarante-cinq minutes d’échanges entre l’animatrice et l’intervenante, suivies d’un temps conséquent de questions avec la salle. L’exposé s’organise autour de trois blocs : les usages de l’IA dans les collectivités, l’impact sur les processus de travail, puis l’impact sur l’emploi et les compétences.

Conférence SNDGCT

Pourquoi parler d’IA maintenant ?

L’objectif est de prendre de la hauteur, loin de la science-fiction, en partant d’exemples concrets déjà rencontrés dans des petites comme des grandes collectivités. L’un de ces exemples évoque un courrier rédigé en temps record grâce à un assistant conversationnel, cas qui illustre la diffusion rapide d’outils « grand public » dans les usages professionnels.

Le « shadow AI » : usages sans cadre

Le phénomène de shadow AI désigne l’usage d’outils d’IA par des agents en dehors de tout cadre officiel, par exemple une secrétaire de mairie qui s’aide d’un chatbot pour écrire au préfet. Ce type de pratiques expose à des risques de confidentialité et de sécurité, et rappelle la nécessité d’un cadre interne explicite (chartes, habilitations, gouvernance des données). On souligne aussi le contexte de guerre hybride : les services publics sont des cibles de déstabilisation via le numérique, ce qui impose de renforcer la sécurité et la pédagogie autour des usages.

De quoi parle-t-on quand on parle d’IA ?

Il existe une pluralité de systèmes : l’IA qui aide à détecter des pannes d’eau n’est pas la même que celle qui aide à rédiger un courrier. Le focus de la matinée porte notamment sur l’IA générative et les modèles de langage utilisés via des interfaces de type chat (LLM). Ces systèmes s’appuient sur de vastes corpus et des réseaux de neurones qui produisent du texte naturel, avec des performances inédites mais aussi des limites bien réelles.

Forces et limites des modèles de langage

Les modèles peuvent halluciner des informations plausibles mais fausses. Un essai dans Mistral a par exemple attribué à « Marianne Dabbadie » une biographie d’autrice jeunesse inexistante, accompagnée de liens inventés ; après correction par l’utilisatrice, le système a « reconnu » son erreur mais a proposé d’autres liens qui se sont révélés faux. Cette démonstration rappelle qu’il faut une vigilance méthodique, une habitude de vérification et, idéalement, des garde-fous techniques et organisationnels.

Usages concrets dans les collectivités

Les usages transversaux se multiplient : accueil et relation citoyenne avec des chatbots pour les questions simples, assistance à la rédaction de courriers et de comptes rendus, analyse de données du territoire pour éclairer la décision, ou encore maintenance prédictive des équipements publics (eau, chauffage, etc.). Ces outils n’effacent pas les métiers, ils reconfigurent les tâches et libèrent du temps pour l’écoute, la médiation et l’accompagnement humain — des dimensions que l’IA ne remplace pas.

 

Étude de l’INET-CNFPT et directions concernées

En écho à l’étude INET-CNFPT présentée l’après-midi, il est signalé que la DG Solidarité serait relativement moins exposée, tandis que les Ressources humaines (formation, recrutement) et les directions de proximité ou le Secrétariat général sont plus directement concernés. On rappelle la prudence nécessaire sur l’automatisation du recrutement : un premier tri peut être utile, mais la rencontre humaine reste décisive pour apprécier l’adéquation au contexte.

Cadre juridique : RGPD et Règlement européen sur l’IA

Le RGPD impose consentement, transparence, minimisation des données et droit à l’explication. Le Règlement européen sur l’IA (AI Act), adopté en 2024, introduit une typologie des risques : risque inacceptable (interdiction totale), élevé (encadrement strict), limité (obligation d’information) et minimal (contraintes légères). Parmi les interdictions : surveillance de masse en temps réel, reconnaissance biométrique dans l’espace public, notation sociale, reconnaissance des émotions des employés et manipulation comportementale. L’objectif est de protéger les libertés tout en laissant se développer des usages utiles et proportionnés.

Calendrier d’entrée en application et sanctions

L’entrée en application se fait par étapes. Dès février 2025, les systèmes à risque inacceptable doivent être interdits. En août 2025, les fournisseurs d’IA générative doivent se conformer aux obligations de transparence, par exemple indiquer que le contenu a été produit par une IA et, potentiellement, intégrer des watermarks invisibles ; la question du droit d’auteur en cas de collaboration IA est évoquée. En août 2026, la mise en conformité par niveaux de risque devient exigible, avec des sanctions pouvant atteindre 2 % à 7 % du chiffre d’affaires mondial en cas de manquement. En août 2027, l’application est complète pour les IA à haut risque intégrées à des produits réglementés.

Focus véhicules autonomes : prudence européenne

Les véhicules autonomes sont cités pour éclairer la notion de haut risque. En France, la conduite autonome reste limitée (niveau 3), car la responsabilité humaine doit pouvoir reprendre le contrôle. Aux États-Unis, des véhicules circulent déjà sans conducteur, ce qui pose des dilemmes éthiques en cas d’arbitrage extrême. Cette différence illustre la prudence européenne face aux usages à fort impact.

De la charte à la gouvernance : l’exemple Région Sud

L’exemple de charte d’utilisation de l’IA, porté en Région Sud, est jugé intéressant car il balaye les problèmes de bout en bout : expression et qualification du besoin, arbitrages juridiques et humains, droits d’accès et de rectification, sécurité et processus scientifique d’un projet d’IA. L’existence de documents publics de référence facilite l’appropriation et la duplication des bonnes pratiques.

Méthodologie d’évaluation et communication publique

L’évaluation se raisonne avant/après sur des cas concrets : par exemple, sur la détection des fuites d’eau, on peut comparer le pourcentage de fuites détectées et la rapidité d’intervention avant et après l’IA. Côté communication, l’idée est de multiplier les formats (réunions citoyennes, presse locale, newsletters, reportages) pour expliquer ce qui est fait, pourquoi et avec quelles garanties.

Transformer les processus plutôt qu’ajouter un gadget

L’IA n’est pas un simple outil de plus : elle reconfigure les modes de travail. Il faut poser des objectifs, impliquer les équipes, prévoir l’accompagnement au changement, travailler les craintes (peur de l’inconnu, de « perdre son métier ») et rappeler qu’il s’agit d’un compagnon et non d’un remplaçant. Les agents « sur étagère » peuvent aider à démarrer, mais ils doivent être adaptés au contexte de chaque collectivité. On recommande de réunir très en amont les services, de faire émerger les attentes, de définir ensemble les règles et les garde-fous.

Services supports et finances : des gains visibles

Dans la gestion administrative et financière, l’IA facilite le traitement et le classement des courriers et e-mails, la reconnaissance de documents (OCR) mieux comprise par la machine, la préparation de brouillons pertinents, la prévision budgétaire et la détection des dérives. On cite même, hors secteur public, l’exemple d’un artisan qui photographie sa liste de fournitures et obtient en quelques secondes un devis prêt à être envoyé, illustrant les gains de temps possibles.

Accueil, urbanisme, services techniques : des cas d’usage lisibles

En relation citoyenne, un agent conversationnel hybride peut absorber des demandes simples et aiguiller les cas complexes vers l’humain, dans le respect du droit à l’information des usagers (« vous parlez à une IA »). En urbanisme et services techniques, la maintenance prédictive optimise les interventions sur les équipements ; les projets de vidéoprotection exigent un cadre strict (autorisations, finalités, durée), et ne doivent pas être confondus avec des usages interdits par l’AI Act (reconnaissance faciale dans l’espace public, etc.).

Recommandations de mise en œuvre

Ne pas faire « comme si l’IA n’existait pas » ; commencer par un audit des problèmes métiers et des cas prioritaires ; impliquer les agents dès le départ ; prévoir formation et acculturation ; établir une stratégie transversale plutôt que cantonner le sujet à la DSI ; communiquer clairement aux citoyens. L’IA sert à traiter plus de problèmes, à mieux détecter ce que l’humain ne voit pas toujours, mais elle exige vérification et explicabilité.

Échanges avec la salle : outils, coûts et souveraineté

Un intervenant, Philippe Saint-Martin, témoigne de son usage de Le Chat Pro (licence autour de 17,99 € / mois), et compare ses performances à celles de ChatGPT sur les tâches bureautiques courantes. Il mentionne des connecteurs pratiques (Gmail, Agenda) qui automatisent des recherches et préparent des réponses, fonctionnalités qui seraient autrement facturées cher par des prestataires. L’argument de la souveraineté est rappelé : Le Chat conserve les conversations de façon confidentielle, point sensible pour les collectivités.

Bonnes pratiques et cas pionniers

Plusieurs collectivités sont citées pour leur avance : Marseille, Dijon avec des assistants citoyens, et Nantes qui a lancé un grand débat public et un appel à projets autour de l’acculturation. La ligne directrice est claire : former, expliquer, faire participer.

IA et décision publique : toujours une vérification humaine

Certaines décisions sensibles ne doivent pas être totalement automatisées. Les algorithmes peuvent aider, mais la validation humaine reste impérative, notamment pour l’attribution de logements sociaux ou les décisions touchant à des droits. On rappelle les controverses autour d’un algorithme de la CAF et le fait que l’AI Act interdit certains classements ou notations attentatoires aux libertés.

Conclusion : une IA « compagnon », pas un substitut

L’IA est un compagnon de travail. Elle ne remplace ni l’écoute, ni l’empathie, ni la médiation. Pour réussir une transition, il faut rassurer, former, co-concevoir les usages avec les équipes et expliquer aux citoyens. Les métiers évoluent plus qu’ils ne disparaissent ; de nouveaux rôles apparaissent (gestionnaires de données, référents éthiques), et les organisations qui s’emparent du sujet avec méthode gagnent en efficacité, qualité et transparence

.tablepress-id-1 td img { width: 120px !important; height: auto !important; max-height: 120px !important; object-fit: contain; display: block; margin: 0 auto; }