Les conférences d'EVALIR Prenez contact
Ouverture et présentation
Madame Marianne Dabbadie est présentée comme experte en intelligence artificielle, chercheuse associée au laboratoire LHUMAIN (Université Paul-Valéry – Montpellier) et fondatrice d’Évalir, entreprise basée à Sarlat, spécialisée dans l’IA et le management. Elle travaille avec les collectivités et avec l’Éducation nationale. Elle a également été sollicitée par la Commission des affaires économiques de l’Assemblée nationale pour contribuer à une réflexion sur l’impact de l’IA sur les métiers à court, moyen et long terme. La séance prévoit quarante-cinq minutes d’échanges entre l’animatrice et l’intervenante, suivies d’un temps conséquent de questions avec la salle. L’exposé s’organise autour de trois blocs : les usages de l’IA dans les collectivités, l’impact sur les processus de travail, puis l’impact sur l’emploi et les compétences.
Conférence SNDGCT
Pourquoi parler d’IA maintenant ?
L’objectif est de prendre de la hauteur, loin de la science-fiction, en partant d’exemples concrets déjà rencontrés dans des petites comme des grandes collectivités. L’un de ces exemples évoque un courrier rédigé en temps record grâce à un assistant conversationnel, cas qui illustre la diffusion rapide d’outils « grand public » dans les usages professionnels.
Le « shadow AI » : usages sans cadre
Le phénomène de shadow AI désigne l’usage d’outils d’IA par des agents en dehors de tout cadre officiel, par exemple une secrétaire de mairie qui s’aide d’un chatbot pour écrire au préfet. Ce type de pratiques expose à des risques de confidentialité et de sécurité, et rappelle la nécessité d’un cadre interne explicite (chartes, habilitations, gouvernance des données). On souligne aussi le contexte de guerre hybride : les services publics sont des cibles de déstabilisation via le numérique, ce qui impose de renforcer la sécurité et la pédagogie autour des usages.
De quoi parle-t-on quand on parle d’IA ?
Il existe une pluralité de systèmes : l’IA qui aide à détecter des pannes d’eau n’est pas la même que celle qui aide à rédiger un courrier. Le focus de la matinée porte notamment sur l’IA générative et les modèles de langage utilisés via des interfaces de type chat (LLM). Ces systèmes s’appuient sur de vastes corpus et des réseaux de neurones qui produisent du texte naturel, avec des performances inédites mais aussi des limites bien réelles.
Forces et limites des modèles de langage
Les modèles peuvent halluciner des informations plausibles mais fausses. Un essai dans Mistral a par exemple attribué à « Marianne Dabbadie » une biographie d’autrice jeunesse inexistante, accompagnée de liens inventés ; après correction par l’utilisatrice, le système a « reconnu » son erreur mais a proposé d’autres liens qui se sont révélés faux. Cette démonstration rappelle qu’il faut une vigilance méthodique, une habitude de vérification et, idéalement, des garde-fous techniques et organisationnels.
Usages concrets dans les collectivités
Les usages transversaux se multiplient : accueil et relation citoyenne avec des chatbots pour les questions simples, assistance à la rédaction de courriers et de comptes rendus, analyse de données du territoire pour éclairer la décision, ou encore maintenance prédictive des équipements publics (eau, chauffage, etc.). Ces outils n’effacent pas les métiers, ils reconfigurent les tâches et libèrent du temps pour l’écoute, la médiation et l’accompagnement humain — des dimensions que l’IA ne remplace pas.
Étude de l’INET-CNFPT et directions concernées
En écho à l’étude INET-CNFPT présentée l’après-midi, il est signalé que la DG Solidarité serait relativement moins exposée, tandis que les Ressources humaines (formation, recrutement) et les directions de proximité ou le Secrétariat général sont plus directement concernés. On rappelle la prudence nécessaire sur l’automatisation du recrutement : un premier tri peut être utile, mais la rencontre humaine reste décisive pour apprécier l’adéquation au contexte.
Cadre juridique : RGPD et Règlement européen sur l’IA
Le RGPD impose consentement, transparence, minimisation des données et droit à l’explication. Le Règlement européen sur l’IA (AI Act), adopté en 2024, introduit une typologie des risques : risque inacceptable (interdiction totale), élevé (encadrement strict), limité (obligation d’information) et minimal (contraintes légères). Parmi les interdictions : surveillance de masse en temps réel, reconnaissance biométrique dans l’espace public, notation sociale, reconnaissance des émotions des employés et manipulation comportementale. L’objectif est de protéger les libertés tout en laissant se développer des usages utiles et proportionnés.
Calendrier d’entrée en application et sanctions
L’entrée en application se fait par étapes. Dès février 2025, les systèmes à risque inacceptable doivent être interdits. En août 2025, les fournisseurs d’IA générative doivent se conformer aux obligations de transparence, par exemple indiquer que le contenu a été produit par une IA et, potentiellement, intégrer des watermarks invisibles ; la question du droit d’auteur en cas de collaboration IA est évoquée. En août 2026, la mise en conformité par niveaux de risque devient exigible, avec des sanctions pouvant atteindre 2 % à 7 % du chiffre d’affaires mondial en cas de manquement. En août 2027, l’application est complète pour les IA à haut risque intégrées à des produits réglementés.
Focus véhicules autonomes : prudence européenne
Les véhicules autonomes sont cités pour éclairer la notion de haut risque. En France, la conduite autonome reste limitée (niveau 3), car la responsabilité humaine doit pouvoir reprendre le contrôle. Aux États-Unis, des véhicules circulent déjà sans conducteur, ce qui pose des dilemmes éthiques en cas d’arbitrage extrême. Cette différence illustre la prudence européenne face aux usages à fort impact.
De la charte à la gouvernance : l’exemple Région Sud
L’exemple de charte d’utilisation de l’IA, porté en Région Sud, est jugé intéressant car il balaye les problèmes de bout en bout : expression et qualification du besoin, arbitrages juridiques et humains, droits d’accès et de rectification, sécurité et processus scientifique d’un projet d’IA. L’existence de documents publics de référence facilite l’appropriation et la duplication des bonnes pratiques.
Méthodologie d’évaluation et communication publique
L’évaluation se raisonne avant/après sur des cas concrets : par exemple, sur la détection des fuites d’eau, on peut comparer le pourcentage de fuites détectées et la rapidité d’intervention avant et après l’IA. Côté communication, l’idée est de multiplier les formats (réunions citoyennes, presse locale, newsletters, reportages) pour expliquer ce qui est fait, pourquoi et avec quelles garanties.
Transformer les processus plutôt qu’ajouter un gadget
L’IA n’est pas un simple outil de plus : elle reconfigure les modes de travail. Il faut poser des objectifs, impliquer les équipes, prévoir l’accompagnement au changement, travailler les craintes (peur de l’inconnu, de « perdre son métier ») et rappeler qu’il s’agit d’un compagnon et non d’un remplaçant. Les agents « sur étagère » peuvent aider à démarrer, mais ils doivent être adaptés au contexte de chaque collectivité. On recommande de réunir très en amont les services, de faire émerger les attentes, de définir ensemble les règles et les garde-fous.
Services supports et finances : des gains visibles
Dans la gestion administrative et financière, l’IA facilite le traitement et le classement des courriers et e-mails, la reconnaissance de documents (OCR) mieux comprise par la machine, la préparation de brouillons pertinents, la prévision budgétaire et la détection des dérives. On cite même, hors secteur public, l’exemple d’un artisan qui photographie sa liste de fournitures et obtient en quelques secondes un devis prêt à être envoyé, illustrant les gains de temps possibles.
Accueil, urbanisme, services techniques : des cas d’usage lisibles
En relation citoyenne, un agent conversationnel hybride peut absorber des demandes simples et aiguiller les cas complexes vers l’humain, dans le respect du droit à l’information des usagers (« vous parlez à une IA »). En urbanisme et services techniques, la maintenance prédictive optimise les interventions sur les équipements ; les projets de vidéoprotection exigent un cadre strict (autorisations, finalités, durée), et ne doivent pas être confondus avec des usages interdits par l’AI Act (reconnaissance faciale dans l’espace public, etc.).
Recommandations de mise en œuvre
Ne pas faire « comme si l’IA n’existait pas » ; commencer par un audit des problèmes métiers et des cas prioritaires ; impliquer les agents dès le départ ; prévoir formation et acculturation ; établir une stratégie transversale plutôt que cantonner le sujet à la DSI ; communiquer clairement aux citoyens. L’IA sert à traiter plus de problèmes, à mieux détecter ce que l’humain ne voit pas toujours, mais elle exige vérification et explicabilité.
Échanges avec la salle : outils, coûts et souveraineté
Un intervenant, Philippe Saint-Martin, témoigne de son usage de Le Chat Pro (licence autour de 17,99 € / mois), et compare ses performances à celles de ChatGPT sur les tâches bureautiques courantes. Il mentionne des connecteurs pratiques (Gmail, Agenda) qui automatisent des recherches et préparent des réponses, fonctionnalités qui seraient autrement facturées cher par des prestataires. L’argument de la souveraineté est rappelé : Le Chat conserve les conversations de façon confidentielle, point sensible pour les collectivités.
Bonnes pratiques et cas pionniers
Plusieurs collectivités sont citées pour leur avance : Marseille, Dijon avec des assistants citoyens, et Nantes qui a lancé un grand débat public et un appel à projets autour de l’acculturation. La ligne directrice est claire : former, expliquer, faire participer.
IA et décision publique : toujours une vérification humaine
Certaines décisions sensibles ne doivent pas être totalement automatisées. Les algorithmes peuvent aider, mais la validation humaine reste impérative, notamment pour l’attribution de logements sociaux ou les décisions touchant à des droits. On rappelle les controverses autour d’un algorithme de la CAF et le fait que l’AI Act interdit certains classements ou notations attentatoires aux libertés.
Conclusion : une IA « compagnon », pas un substitut
L’IA est un compagnon de travail. Elle ne remplace ni l’écoute, ni l’empathie, ni la médiation. Pour réussir une transition, il faut rassurer, former, co-concevoir les usages avec les équipes et expliquer aux citoyens. Les métiers évoluent plus qu’ils ne disparaissent ; de nouveaux rôles apparaissent (gestionnaires de données, référents éthiques), et les organisations qui s’emparent du sujet avec méthode gagnent en efficacité, qualité et transparence