C’est une première mondiale. En septembre dernier, le premier ministre albanais Edi Rama, a nommé une IA comme ministre chargée des marchés publics. Cette technologie, aux traits féminins, répond au nom de Diella (Soleil, en albanais, NDLR). L’ambition affichée ? Favoriser l’impartialité lors de l’attribution des marchés publics au sein d’un pays marqué par une forte corruption, afin d’accélérer l’adhésion de l’Albanie à l’Union européenne. Décryptage d’une initiative inédite…aux limites bien visibles.
Une volonté d’impartialité…bercée d’illusions
Pour Edi Rama, l’enjeu est de taille. Les négociations d’adhésion à l’UE, entamées en 2022, butent sur les rapports de la Commission qui insistent sur la lutte contre le crime organisé et la corruption. Confier les clés des marchés publics à une machine semble alors être la solution radicale. Pourtant, cette confiance occulte une réalité fondamentale : l’IA ne naît pas de rien, et son mode de fonctionnement est potentiellement empreint de biais. Isabelle Collet, enseignante-chercheuse à l’université de Genèse insistait déjà sur trois risques principaux dans un rapport datant de 2018 :
- L’apprentissage des stéréotypes par ces technologiques puisque les IA sont alimentées “par des milliards de données issues de nos cultures, elles intègrent et reproduisent des représentations historiques discriminatoires”.
- La discrimination dans l’aide à la décision (octroie de prêt, embauches etc…) : partant de ces bases de données biaisées
- Le manque de diversité dans les métiers du numérique implique des biais plus importants dans la conception même des systèmes.
Difficile alors de remettre le jugement public entre les mains d’une IA. Car en plus d’avoir été modelée par des humains, on peut tout à fait imaginer que quelqu’un puisse modifier ses paramètres pour favoriser une entreprise ou l’autre lors de l’attribution de marchés. Or c’est justement ce que le New York Times nous apprenait début 2026. Dès décembre, seulement 4 mois après la nomination de Diella, la justice albanaise avait engagé des poursuites notamment à l’encontre de la directrice de l’institution gérant l’infrastructure numérique du gouvernement. Ce qui comprenait un certain nombre de systèmes publics en ligne, incluant … Diella elle-même.
Une délégation risquée de la pensée
Au-delà de cet exemple dont les limites apparaissent clairement, une petite musique s’immisce de plus en plus fréquemment dans les débats autour de l’usage de l’IA. Cette technologie aurait, par essence, une plus grande capacité à être objective. Là encore, doit-on le rappeler, l’IA n’est pas une puissance divine qui n’émane de rien. Si son aide précieuse dans le brassage, l’analyse et la valorisation des données semble devenir incontournable, un risque demeure. Celui de finir par déléguer tout ou partie de la prise de décision sans recul. Du côté des entreprises, selon la dernière étude IA Radar du BCG, 58% des dirigeants s’attendent à des changements dans la gouvernance et les processus de prise de décisions et plus d’un tiers pensent que l’IA disposera d’une forme de pouvoir décisionnaire dans leur organisation d’ici 3 ans.
Cela pose de nombreuses questions : qu’est-ce qui fait qu’une décision est objective ? Est-ce que seules les données chiffrées importent ? Le risque en somme, serait de passer à côté de l’aspect conflictuel de la prise de décision. Mais le dialogue social, aussi difficile soit-il parfois, permet la durabilité des accords et l’acceptabilité des stratégies. Bien sûr c’est un travail de longue haleine, avec moins de certitude sur l’issue des discussions. Mais est-on prêt à renoncer à cette valeur ajoutée, pour une supposée efficacité ? Un benchmark suisse mené par un collectif de chercheurs a montré que sur des questions complexes, les IA génératives types Chat GPT ont entre 30 et 70% de taux d’erreurs. Quel que soit le type d’intelligence artificielle utilisé, il vaut donc mieux garder la tête froide.
Et en France alors ?
Du côté de la politique, IA et prise de décisions se conjuguent déjà. D’après un sondage Ipsos-BVA pour la fondation Jean-Jaurès, 27% des Français ont visiblement « l’intention d’interroger un modèle d’IA pour se renseigner sur les programmes des candidats de leur ville et les aider à faire un choix ». En tenant compte des caractéristiques de son interlocuteur, l’intelligence artificielle pourrait alors lui proposer le candidat susceptible de mieux lui correspondre. Dis-moi qui tu es, je te dirai qui voter ?
Côté entreprises, sans surprise l’intelligence artificielle s’est imposée comme un levier stratégique pour la gestion des risques et des flux, allant jusqu’à influencer directement la prise de décision. Renault a par exemple intégré l’IA au cœur de sa R&D : l’analyse algorithmique des tendances de consommation et de la concurrence permet désormais au constructeur d’affiner sa production et d’orienter ses investissements à long terme, notamment vers les véhicules électriques et autonomes. Dans le secteur aérien, Air France-KLM exploite également ces technologies pour optimiser ses opérations. En croisant les données passagers avec les dynamiques du marché, la compagnie ajuste ses itinéraires et horaires en temps réel. Cette approche pilotée par l’IA a permis de concilier réduction des coûts opérationnels et amélioration de l’expérience client, tout en maximisant la rentabilité des vols. (Dynamique Entrepreneuriale, avril 2025)
Les usages de l’IA dans la prise de décision sont donc déjà monnaie courante. Plutôt que de plaider pour ou contre, l’enjeu est de borner clairement ses usages. Tout en conservant à tout prix une réflexivité individuelle et collective, même dans un contexte d’accélération et d’hyper compétitivité. Poser des questions à l’IA oui, mais encore faut-il s’en poser quelques-unes avant : pourquoi utilise-t-on l’IA ? À quel moment du processus de décision intervient-elle ? Et comment comprendre la construction de ses réponses et en questionner la pertinence ?
Tout ça mérite sans doute une discussion… humaine non ?
Clémentine Buisson
