IA générative à ARTELIA : maîtriser la technologie, protéger nos métiers

La direction d’ARTELIA présente l’intelligence artificielle générative comme une opportunité : produire plus vite, alléger les tâches “à faible valeur ajoutée”, renforcer la marge. Copilot est désormais accessible, des groupes de “champions” testent des usages avancés, des expérimentations surgissent autour des cahiers des charges, des notes de calcul pré-rédigées ou des analyses d’offres automatiques. Tout cela s’est imposé rapidement, sans consultation, sans étude d’impact, sans réflexion collective sur les conséquences professionnelles, sociales et environnementales. La technologie peut être un progrès. Mais une technologie introduite sans débat est presque toujours un risque. À l’heure où le groupe se réorganise et où les élections professionnelles de 2026 approchent, nous devons documenter ce qui se joue réellement : la nature des outils, leur impact sur les compétences, les conditions de travail, la responsabilité juridique, l’environnement et la qualité de l’ingénierie.

Deux types d’IA, deux logiques opposées

La confusion est entretenue entre IA générative et IA métier. Une IA métier, qu’il s’agisse d’un algorithme d’analyse d’images satellites, d’un modèle hydrologique, d’un système de détection de tumeurs ou d’un outil d’optimisation en conception industrielle, repose sur des lois scientifiques, des équations, un domaine de validité. Elle calcule, détecte, prédit. À l’inverse, une IA générative comme Copilot, ChatGPT, Gemini ou GROK produit du texte ou des images en imitant des formes apprises statistiquement. Elle ne connaît ni la physique, ni la réglementation, ni les limites d’un modèle, ni les responsabilités associées à un livrable technique. Elle génère du plausible, pas du vrai. La direction évoque déjà des cahiers des charges ou des analyses d’offres automatiques, mais ces productions reposent sur un mécanisme qui ignore tout des enjeux d’ingénierie et des conséquences juridiques.

Une déqualification lente mais profonde

L’argument selon lequel l’IA prendrait en charge les tâches “à faible valeur ajoutée” masque une réalité bien documentée : lire, résumer, croiser les sources, structurer un rapport sont des opérations essentielles pour comprendre un dossier et construire l’expertise. Retirer ces tâches revient à priver les ingénieurs, et notamment les jeunes, des fondations du métier. La déqualification n’est pas immédiate. Elle avance par glissements. Les experts actuels conservent leur savoir-faire, mais passent déjà une partie de leur temps à relire des productions générées pour aller plus vite. Les jeunes recrues arrivent avec des sections de rapport rédigées par IA. Les managers, faute de budget ou de temps, utilisent déjà l’IA pour pré-rédiger des analyses. Nous voyons les premiers signes d’une évolution observée dans d’autres professions : les experts deviennent correcteurs, les novices deviennent dépendants, et la chaîne de transmission s’effondre. Dans le droit américain, dans l’informatique ou la finance, les travaux montrent que les IA renforcent les plus expérimentés mais empêchent les moins expérimentés de progresser réellement. Pour ARTELIA, cela signifie qu’une génération entière pourrait perdre l’accès à l’expertise technique, au moment même où les enjeux environnementaux, climatiques et infrastructurels exigent plus de maîtrise, pas moins.

Responsabilité, intensification et environnement

Les gains de temps promis par le numérique se transforment presque toujours en augmentation de la charge. Tout ce que l’IA permet plus vite finit par être exigé systématiquement. Dans un contexte de marges tendues et de délais compressés, il serait illusoire de penser que Copilot allégera le travail : il accélérera les attentes. La responsabilité juridique est un autre enjeu majeur. Une IA générative ne comprend ni les normes, ni les limites techniques, ni les hypothèses. Pourtant, un rapport signé engage l’ingénieur. Toute ambiguïté dans la chaîne de production de l’analyse crée un risque. Enfin, l’impact environnemental de l’IA générative est totalement absent des réflexions actuelles. Ces modèles consomment d’importantes quantités d’électricité, d’eau et de ressources matérielles. Dans un groupe dont le scope 3 est déjà dominant, déployer des outils énergivores sans analyse préalable va à rebours des engagements climatiques.

Conclusion

L’IA générative peut être un outil intéressant, mais elle n’est pas une solution neutre et encore moins une source d’ingénierie fiable. Sans débat, sans cadre et sans compréhension de ses limites, elle risque de dégrader les compétences, d’intensifier le travail, de renforcer les risques juridiques et de contredire les ambitions environnementales du groupe. Alors qu’ARTELIA se transforme en profondeur et que les élections professionnelles de 2026 approchent, il est essentiel de défendre un usage maîtrisé, transparent et réellement au service du travail.

Nos revendications

Ce que nous demandons, avant tout, c’est une véritable co-construction de la stratégie IA du groupe. Le déploiement de Copilot et la constitution des « groupes de champions » ont été menés sans consultation, sans information préalable, sans espace de travail commun. Le CSE a été mis devant le fait accompli. Cette situation n’est pas seulement regrettable : elle est révélatrice d’une manière de faire qui écarte les salarié·es de décisions qui transforment pourtant en profondeur leurs métiers.
Nous refusons que les représentant·es du personnel soient relégués en bout de chaîne, dans un rôle d’information passive. Le CSE doit être associé dès l’amont, formé aux enjeux, intégré à la conception des politiques internes, et en situation de discuter les orientations, les risques et les protections nécessaires. La CGT, au niveau confédéral comme à l’UGICT et à la Fédération des sociétés d’études, défend une ligne claire : l’IA n’est acceptable que si elle est gouvernée collectivement, si elle renforce la qualification au lieu de la détruire, si elle respecte le travail réel, et si elle n’est jamais un prétexte à intensifier les charges ou réduire les effectifs.
Ce travail de co-construction est d’autant plus indispensable que la majorité actuelle au CSE, tenue par la CFDT, n’a pas exigé d’être associée aux décisions en matière d’IA, n’a demandé ni commission, ni expertise, ni négociation spécifique. Elle a accepté le déploiement tel quel, sans questionner les impacts sur les métiers, sur l’expertise ou sur la responsabilité technique. C’est leur choix, mais il nous appartient de dire clairement que cette absence d’action laisse la direction seule aux commandes d’un sujet qui, partout ailleurs, fait l’objet d’un dialogue social approfondi. À l’heure de transformations profondes du groupe, cela ne peut plus durer.
Nous demandons donc : une stratégie IA co-élaborée, la transparence intégrale des expérimentations en cours, la traçabilité obligatoire de tout contenu généré par IA, et l’interdiction d’utiliser l’IA générative pour les livrables engageant la responsabilité technique. Nous demandons la protection réelle des compétences, notamment en maintenant les tâches formatrices, les temps d’expertise et les recrutements juniors. Nous demandons un encadrement strict de la propriété intellectuelle, et surtout une évaluation environnementale de tout déploiement : une IA générative consomme de l’électricité, de l’eau, des métaux rares, et alourdit le scope 3. On ne peut pas prétendre faire de la transition écologique tout en multipliant l’usage d’outils dont l’empreinte n’est jamais mesurée.
Enfin, nous demandons que soit clairement distingué ce qui relève des IA métier, fondées sur des modèles scientifiques explicites, et ce qui relève des IA génératives, qui produisent du texte plausible sans cohérence technique. Confondre les deux conduit droit aux erreurs d’analyse et à la perte d’expertise.
Cet enjeu est directement lié aux élections professionnelles de 2026. Un CSE peu écouté et peu exigeant laisse la direction décider seule de la transformation technologique. Un CSE fort, représentatif, mandaté, permet d’imposer la co-construction, de renforcer les protections et d’ouvrir un débat réel sur l’avenir des métiers et de l’ingénierie. Voter massivement en 2026, c’est donner aux salarié·es la capacité de peser sur ces choix structurants et de reprendre la main sur ce qui doit rester un outil au service du travail, et non l’inverse.
Imprimer cet article Télécharger cet article