7 tendances technologiques qui vont transformer l’IT en 2026
Tech trends 2026
7 tendances technologiques qui vont transformer l’IT en 2026
Vers une nouvelle vague d’innovation technologique
Découvrez les 7 tendances clés
et les priorités à fixer pour chacune d’elles en 2026
Tendance technologique #1
L’entreprise augmentée par l’IA
Sans surprise, l’IA continuera de dominer les discussions business en 2026. Notre Global AI Survey 2025 met en évidence un paradoxe que vous constatez probablement au quotidien : 70 % des organisations déclarent que l’IA est déjà une priorité stratégique, pourtant près de la moitié ne dispose d’aucune méthode structurée pour mesurer la valeur créée, et la gestion du risque reste un frein majeur à la mise à l’échelle. Les modèles ne constituent plus le principal goulet d’étranglement. Lorsque les initiatives patinent, les causes se situent le plus souvent du côté de la qualité de la donnée, de la gouvernance et de l’intégration dans les systèmes existants.
Dans le même temps, les attentes montent d’un cran. Les conseils d’administration veulent voir l’impact de l’IA apparaître clairement dans le compte de résultat, et certaines lignes de métier travaillent désormais sur des cas d’usage où l’erreur n’est tout simplement pas acceptable. Dans ce contexte, saupoudrer « un peu d’IA partout » ne peut plus tenir lieu de stratégie.
Le véritable agenda 2026 consiste à transformer l’IA en capacité d’entreprise à part entière. Cela suppose de concentrer les efforts sur quelques cas d’usage qui comptent vraiment, d’aligner les personnes qui en partagent la responsabilité, et de faire entrer l’IA dans le travail de tous les jours.
Source : Global AI Survey
Tendance #1 : L’entreprise augmentée par l’IA
Quelles priorités fixer pour 2026 ?
De nombreuses organisations ont passé les 18 derniers mois à faire des tests : copilotes dans les suites de productivité, fonctionnalités GenAI intégrées au CRM ou à l’ERP, assistants pour le support client, petits pilotes d’automatisation. Certains cas d’usage améliorent réellement un processus. D’autres sont impressionnants en démonstration, mais difficiles à sécuriser, coûteux à exploiter ou déroutants pour les utilisateurs.
2026 marque le passage d’une logique tirée par la technologie à une logique tirée par les processus. L’approche pragmatique consiste à partir de quelques processus critiques, identifier précisément où le travail se bloque, puis comparer les options : analytics, automatisation, IA « traditionnelle », IA générative ou approches agentic à base d’agents autonomes. Dans bien des cas, une combinaison de techniques sera plus pertinente qu’un « modèle héros » unique.
Les acteurs les plus avancés iront plus loin sur un ou deux parcours clés en les redesignant de bout en bout dans une logique AI-first, avec un sponsoring fort de l’ExCom. En parallèle, les DSI devront faire face à deux choix structurants : s’appuyer davantage sur l’IA embarquée dans les grandes plateformes, ou investir dans une couche d’IA neutre, posée au-dessus de l’ensemble des données et des systèmes. L’écosystème lui-même évolue déjà : le modèle unique et généraliste laisse progressivement la place à des modèles plus petits et plus ciblés, lorsque cela suffit.
La priorité pour 2026 se résume simplement, même si l’exécution est exigeante : maintenir une liste resserrée de cas d’usage IA, avec une valeur business claire, des exigences de données réalistes et un modèle économique explicable, et commencer à retirer le reste.
L’IA manipule désormais des données sensibles, s’exécute dans des environnements cloud hybrides et influence des décisions dans des activités régulées ou à forte exigence de précision. Sans cadre commun, cela se traduit vite par une mosaïque de règles locales dont personne n’a véritablement la maîtrise.
Les organisations qui avancent le plus vite sont en général celles où la gouvernance est partagée. Le trio CIO–CISO–CDO constitue le noyau, auquel s’ajoutent les équipes workplace, IT métiers, cloud et FinOps. Aucune de ces équipes ne détient à elle seule la vision d’ensemble. Ensemble, elles l’ont.
L’enjeu, en 2026, est de converger vers un mode unique d’approbation et de supervision de l’IA à l’échelle de l’entreprise. Les équipes doivent savoir qui décide, ce qui est contrôlé et ce qui ne se négocie pas : ce qui peut être automatisé, ce qui doit rester sous contrôle humain, comment la traçabilité est garantie, où l’IA est autorisée à tourner et avec quel niveau d’autonomie. Pour les cas d’usage à très faible tolérance à l’erreur, la localisation de la donnée, la fiabilité des modèles et le logging doivent être traités comme des contraintes de design dès le premier jour.
L’IA a atteint la quasi-totalité des entreprises, mais pas encore la totalité des collaborateurs. Selon notre Global AI Survey 2025, en moyenne seulement 30 % des utilisateurs ciblés ont réellement transformé leur manière de travailler grâce à l’IA. Dans beaucoup d’entreprises, un plafond se forme : les outils sont déployés mais les habitudes changent peu.
Ce décalage est visible pour vos collaborateurs. À la maison, ils utilisent des outils ouverts très puissants. Au travail, ils se heurtent à des versions plus contraintes, plus limitées. De votre côté, les préoccupations portent sur les coûts non maîtrisés, la sécurité, la prolifération d’agents locaux et l’impact environnemental. Ce mélange d’attentes élevées et de contraintes bien réelles explique pourquoi les usages plafonnent.
Réduire cet écart suppose de partir des rôles plutôt que de la technologie. Pour chaque population, il faut identifier un petit nombre d’usages concrets de l’IA qui font sens dans le travail de tous les jours. Ces usages doivent se refléter dans les parcours de formation, les guides pratiques et les discussions de performance, afin que les managers en parlent régulièrement avec leurs équipes.
Les RH et la Communication sont au cœur de cette transformation. Elles peuvent contribuer à définir les nouvelles compétences, ajuster les mécanismes d’incitation et accompagner le changement culturel, pour que l’IA devienne une composante normale de la façon dont le travail est réalisé, et non un gadget optionnel. La mesure doit suivre cette évolution : au lieu de compter les licences, l’attention se porte sur les workflows réellement transformés par l’IA, la fréquence d’usage dans les moments clés et les tâches que les collaborateurs abandonnent parce que l’outil les exécute désormais mieux.
Ce que nous observons sur le terrain est très clair : les attentes autour de l’IA ne cessent de monter, alors que les écarts de maturité restent considérables. Le passage à l’échelle sera impossible tant que la qualité de la donnée, l’intégration et la gouvernance ne sont seront pas traitées en profondeur.
Vous cherchez à déployer la GenAI à grande échelle de façon pragmatique et sécurisée ?
Tendance technologique #2
IA générative à l’échelle
La phase expérimentale de l’IA générative a surtout reposé sur de grands modèles généralistes accessibles via des interfaces de type chat. Cette phase a été indispensable pour installer le sujet dans les esprits et démontrer que les modèles de langage peuvent réellement aider les équipes à avancer dans leur travail.
En 2026, la question change de nature : comment faire entrer cette IA générative au cœur de l’entreprise. Il faut choisir entre les fonctionnalités intégrées aux solutions SaaS, des plateformes neutres que vous maîtrisez, ou un mix des deux, et décider jusqu’où aller avec des agents capables d’agir directement sur les systèmes.
Les organisations se situent aussi à l’interface entre une IA orientée business et une IA accessible à tous. L’IA générative peut débloquer des irritants très concrets dans les processus, mais vos collaborateurs comparent chaque outil interne à ce qu’ils utilisent chez eux et abandonnent vite ce qui leur paraît lent ou trop bridé.
Cette tendance porte sur cette phase de décantation. 2026 est l’année où l’on retient quelques grands usages types de GenAI et où l’on prouve qu’ils fonctionnent à l’échelle.
Tendance #2: IA générative à l’échelle
Quelles priorités fixer pour 2026 ?
En 2025, beaucoup d’entreprises se sont laissées porter par la vague des agents IA, en multipliant les preuves de concept, à la fois attirées par la promesse d’automatisation et inquiètes à l’idée de se faire dépasser. Notre Global AI Survey 2025 montre que seules 3 % des entreprises n’ont pas encore expérimenté les agents, et que la plupart vont désormais bien au-delà du simple chatbot. Les agents commencent à s’intercaler entre les utilisateurs et les systèmes et cela change la manière dont le travail s’organise.
En 2026, les agents ne piloteront pas encore votre activité de bout en bout. C’est en revanche le moment de décider où ils ont du sens et comment vous gardez la main. L’approche raisonnable consiste à se concentrer sur quelques domaines où la valeur est nette et le risque maîtrisable, comme les opérations IT, les opérations commerciales ou le support, et à y déployer des agents sous contrôle. L’objectif est moins de maximiser l’automatisation que de mettre à l’épreuve vos politiques, vos mécanismes de journalisation, vos scénarios d’escalade et vos plans de reprise.
Dans le même temps, les fournisseurs se livrent une course pour imposer leur « plateforme d’agents d’entreprise ». 2026 ne sera pas l’année où vous choisirez un vainqueur définitif, mais vous réduirez le champ des possibles. Mieux vaut s’en servir comme d’une année de comparaison grandeur nature : capacité de connexion à votre identité et à vos données, transparence des actions et des logs, facilité à en sortir si nécessaire. Le marché s’attend à une véritable montée en puissance des agents autour de 2027–2028. Les organisations prêtes à ce moment-là seront celles qui auront utilisé 2026 comme phase de préparation.
La première vague de GenAI dans les entreprises a été dominée par les LLM. C’était logique pour explorer rapidement le champ des possibles. Lorsqu’on revient à des cas d’usage concrets comme la recherche interne, la synthèse documentaire ou le nettoyage de contenu, le recours systématique à un modèle de pointe se justifie rarement.
L’année 2025 a montré qu’une partie importante du travail peut être assurée par des modèles plus petits et spécialisés, avec des coûts plus bas, une meilleure latence et un comportement plus prévisible. En 2026, le véritable enjeu consiste à ne plus traiter le choix de modèle comme un sujet purement technique, mais à le relier à la valeur business et au risque. Pour chaque famille de cas d’usage, il faut clarifier votre position, par exemple en assumant pour certains le coût et la dépendance à de grands modèles managés, en privilégiant pour d’autres des modèles plus légers ou ouverts que vous pouvez héberger et adapter, avec seulement quelques situations où une combinaison des deux reste pertinente.
Beaucoup d’organisations remettront aussi en question les stratégies du type « un seul LLM pour tout ». Des modèles plus petits peuvent jouer le rôle de filtre et de garde-fou autour de vos systèmes cœur, tandis que les grands modèles sont réservés aux cas où leur couverture très large apporte une réelle valeur. Ce basculement ne réduira pas seulement les coûts. Il rendra aussi votre paysage IA plus lisible pour la sécurité, la conformité et la finance.
L’IA générative a déjà trouvé sa place dans les outils quotidiens des développeurs : les assistants suggèrent du code, génèrent des tests, aident à garder la documentation à jour. L’impact se voit dans de nombreuses organisations qui prototypent plus vite et libèrent une partie du travail répétitif de leurs backlogs. En 2026, la question devient celle de la profondeur d’intégration dans la chaîne de delivery sans perdre le contrôle.
Au fur et à mesure que la GenAI intervient dans la conception, le développement, les tests et parfois même l’exploitation, elle influence les choix d’architecture, les revues de sécurité et le rythme des mises en production. Pour un responsable technologique, ces capacités doivent être considérées comme un élément à part entière de la chaîne d’outils standard.
Cela implique de définir clairement où les suggestions de l’IA sont acceptables, comment elles sont relues, et comment traiter des sujets comme les licences ou les vulnérabilités cachées, tout en gardant une vision nette des gains de productivité et de qualité réellement observés dans les équipes de delivery.
Jusqu’ici, l’effort a été relativement simple : tester, prototyper, produire à petite échelle. La prochaine étape est plus exigeante : intégrer l’IA au cœur de la stratégie, des métiers, des décisions quotidiennes.
Tendance technologique #3
Cybersécurité au-delà du SI cœur
Commencer par combler les failles déjà connues
Le rapport CERT-Wavestone 2025 est sans appel. La plupart des incidents ne démarrent pas avec des techniques d’attaque sophistiquées, mais sur des fragilités du quotidien : espaces SaaS insuffisamment durcis, accès distants accordés avec trop de confiance, identifiants trop faciles à récupérer. Très souvent, l’attaquant ne passe même pas par le SI central, il entre par une filiale ou par un partenaire. Autrement dit, la surface d’attaque s’est déplacée vers la périphérie alors que les défenses restent structurées autour du centre.
L’année 2026 doit donc être consacrée à la réduction de ces zones exposées, en s’appuyant sur l’IA pour accélérer la protection là où cela a du sens, et en veillant à ce que les nouvelles initiatives IA portées par les métiers ne créent pas un nouveau stock de angles morts.
Source : Wavestone Cert Report 2025
Tendance #3 : Cybersécurité au-delà du SI cœur
Quelles priorités fixer pour 2026 ?
Les rapports d’incident mettent en avant deux réalités qui convergent : les attaquants ciblent les données, qu’il s’agisse d’informations métier, de données CRM ou de fichiers dans les outils collaboratifs, et la fenêtre pour détecter et contenir une attaque se raccourcit. C’est typiquement une situation où l’IA devient utile côté défense, non pour remplacer les politiques de classification mais pour fluidifier les points de blocage et permettre aux équipes de se concentrer d’abord sur les données qui comptent vraiment.
Concrètement, il s’agit d’utiliser l’IA pour pré-classer et faire remonter les informations sensibles plutôt que de demander aux équipes d’étiqueter manuellement tous les contenus, puis de réserver l’effort humain aux contrôles qui réduisent réellement le risque. Cela implique aussi de soumettre les environnements collaboratifs et les solutions SaaS au même niveau d’attention que les « bijoux de famille » traditionnels, car une grande partie des données exposées s’y trouve désormais. Pour les utilisateurs, les règles doivent rester courtes et opérationnelles afin qu’ils puissent les appliquer au quotidien. Les politiques trop longues, trop complexes, survivent rarement à la réalité du terrain.
Une part significative des incidents récents a démarré hors de l’organisation centrale. Le point d’entrée peut se situer chez un fournisseur, au sein d’une filiale ou via un service à qui l’on avait accordé un niveau de confiance excessif. Avec des opérations fortement interconnectées, ce maillon devient le principal angle mort.
Chercher à sécuriser tous les tiers au même niveau n’est pas tenable. Une posture plus efficace pour 2026 consiste à identifier le cercle restreint de fournisseurs, plateformes et entités dont la compromission pourrait réellement arrêter l’activité, puis à relever en priorité le niveau d’exigence pour ces acteurs. Cela passe par un durcissement des chemins d’identité et d’intégration, par exemple les comptes de service, les mécanismes de tokenisation ou les accès administrateurs depuis l’extérieur, ainsi que par un alignement clair des règles de gestion de crise et d’escalade avec ces partenaires. L’idée est que les rôles soient définis avant l’incident, plutôt que renégociés en plein milieu d’un scénario de crise.
L’objectif reste simple à formuler : traiter ce petit cercle de tiers critiques presque comme une extension de votre propre périmètre de sécurité, au lieu de considérer qu’un questionnaire générique de due diligence suffira.
Les équipes métiers déploient déjà des assistants, des copilotes et même des premiers agents directement dans leurs outils. C’est une bonne chose pour l’innovation. Si chaque initiative définit seule son niveau d’accès et de journalisation, le RSSI se retrouve face à un paysage fragmenté et difficile à lire. L’enjeu, pour 2026, consiste à maintenir la dynamique côté métiers tout en s’assurant que chaque nouvel usage IA est visible et reste dans un cadre commun.
Dans les faits, les entités métiers ont besoin d’un parcours simple pour déclarer ce qu’elles souhaitent mettre en place et obtenir une réponse claire : validation complète, validation sous conditions ou report. Côté sécurité, chaque cas d’usage IA et chaque agent doit s’inscrire dans une enveloppe minimale qui définit les données et systèmes accessibles, les situations où une supervision humaine est obligatoire, ce qui doit être loggé et pendant combien de temps.
Un premier pas très pragmatique consiste à recenser ce qui est déjà en production. Beaucoup d’organisations découvrent encore les projets IA après coup. Ce mapping sert ensuite de base pour définir un socle de référence. À partir de là, l’enjeu est d’intégrer les nouveaux projets dans ce socle plutôt que de multiplier les exceptions.
Les attaquants ne se contentent plus des cibles d’infrastructure traditionnelles. Ils visent désormais vos tiers, vos workloads cloud, vos chaînes de développement, vos systèmes de gestion des identités et des accès, et parfois même certains processus RH ou vos modèles d’IA.
Tendance technologique #4
IT durable « by design »
En 2026, les organisations les plus avancées commencent à piloter la performance financière et extra-financière avec le même niveau d’exigence, et l’IT se trouve au cœur de ce mouvement.
Notre Baromètre RSE 2025 montre que près de 80 % des organisations considèrent que la RSE joue désormais un rôle accru dans la gouvernance. Cela traduit surtout un besoin de gagner en maturité sur la donnée ESG : disposer de données plus fiables, d’architectures adaptées et d’outils permettant de piloter ces sujets avec une rigueur croissante, en cohérence avec les indicateurs business. C’est précisément là que vos équipes ont un rôle direct à jouer.
Pour un DSI ou un leader technologique, la mission est double. Il faut garder sous contrôle l’empreinte de vos infrastructures (datacenters, cloud, IA, terminaux) et fournir les données et plateformes qui rendent la performance extra-financière aussi robuste que la performance financière. L’enjeu pour 2026 est de réussir à concilier le développement accéléré de l’IA avec les enjeux de réduction carbone, par exemple en intégrant des arbitrages par rapport à la création de valeur cible.
Sources : Rapport CSRD & Baromètre RSE 2025
Tendance #4 : IT durable « by design »
Quelles priorités fixer pour 2026?
Dans les organisations les plus avancées, l’IT est déjà un partenaire central dans la production et le reporting de la performance extra-financière. Notre Baromètre RSE 2025 montre que près de 80 % des entreprises ont renforcé la place de la RSE dans la gouvernance et que plus de 75 % prévoient d’investir dans des outils de données ESG. Cela crée un pont naturel entre la RSE, la Finance et l’IT.
En 2026, votre rôle consiste à rendre ce pont explicite. Il s’agit de clarifier qui est propriétaire des modèles de données ESG, comment les données sont collectées et quels outils font foi en tant que référentiel unique. Concrètement, les équipes IT contribuent à stabiliser les flux de données ESG, à les aligner sur la gouvernance de données existante et à industrialiser le reporting, plutôt que de laisser chaque fonction bâtir sa propre vision.
Plus l’information ESG se comporte comme de la donnée financière, avec une traçabilité claire, des définitions partagées et des accès maîtrisés, plus il devient simple de l’utiliser dans de vraies décisions : revues de portefeuille, décisions d’investissement, sélection des fournisseurs, construction des roadmaps produits. C’est à ce moment-là que l’IT transforme réellement la durabilité en levier de pilotage et pas seulement en sujet de communication.
Au rythme où l’IA se déploie, l’IT ne peut plus traiter son impact environnemental comme un sujet périphérique. Les organisations les plus avancées raisonnent déjà en termes de budget carbone. Elles se fixent des plafonds d’émissions et suivent leur « dépense environnementale ».
Cette approche transforme les décisions. Chaque initiative majeure, qu’il s’agisse de déployer un nouvel usage IA, de migrer vers le cloud ou de renouveler un parc d’équipements, se voit associer une empreinte identifiable et mesurable. Dans notre Benchmark CSRD 2025, 58 % des grandes entreprises déclarent disposer d’un modèle pour calculer l’impact carbone de leur portefeuille de projets IT.
Le véritable défi pour 2026 consiste à gérer le carbone comme on gère la trésorerie. Il faut attribuer un « prix carbone » à votre stack technologique, datacenters, cloud et applications, le traduire en chiffres compréhensibles et l’utiliser aux côtés du coût, du risque et des enjeux de time-to-market pour prioriser les projets.
L’objectif n’est pas de sabrer toutes les initiatives fortement consommatrices d’énergie. Il s’agit de faire des choix éclairés et assumés. Si vous décidez de consacrer une part importante de votre budget carbone à un outil d’IA critique, vous savez qu’il faudra compenser ailleurs pour rester dans les clous. Vous pouvez alors expliquer cette logique à l’ExCo avec la même rigueur que pour un budget financier.
La gouvernance de l’IA progresse rapidement avec l’AI Act européen et la mise en place de cadres d’IA responsable en interne. Sur le papier, la plupart de ces cadres mentionnent une dimension environnementale. Dans la pratique, cet aspect commence seulement à peser sur les décisions concrètes. Notre Baromètre RSE 2025 montre que 74 % des directions RSE sont désormais impliquées dans les discussions autour de l’IA, ce qui indique clairement que des sujets comme la consommation d’énergie, l’usage de l’eau ou l’impact local gagnent en importance.
Pour un responsable technologique, l’enjeu n’est pas de prétendre que l’IA peut être « verte » par défaut. Il s’agit de reconnaître que les modèles puissants et les entraînements de grande ampleur ont un coût et de concevoir en conséquence. En 2026, davantage d’organisations privilégieront des modèles plus petits ou spécialisés lorsqu’ils sont suffisants, mutualiseront davantage les ressources de calcul au lieu de multiplier les clusters isolés et intégreront l’impact carbone et énergétique dans les circuits de validation de l’IA, aux côtés des critères de risque et d’éthique.
Le fait de garder la RSE autour de la table pour les décisions IA permet de rendre cette tension visible. Vous pouvez continuer à porter des cas d’usage ambitieux, tout en gardant une vision plus précise de ce qu’ils consomment et de la manière de limiter cet impact dans la durée.
Des solutions techniques existent pour mesurer et réduire considérablement l’impact carbone des IA. Et comme une bonne nouvelle ne vient jamais seule : ces efforts permettent également de réduire les coûts.
Tendance technologique #5
SI régionalisé
Les responsables technologiques vivent tous la même tension. Les grandes plateformes globales promettent cohérence et passage à l’échelle avec une pile unique, opérationnelle de l’Amérique du Nord à l’Europe et à l’APAC. Dans le même temps, la réglementation, la géopolitique et les contraintes sectorielles ramènent une partie des décisions au niveau local. Règles de résidence des données, régulation de l’IA, exigences minimales de sécurité, essor de fournisseurs cloud ou SaaS locaux accélèrent ce mouvement.
Le sujet n’a plus rien de théorique. L’Europe durcit son approche sur les données et l’IA. Les États-Unis maintiennent leurs propres règles stratégiques sur les infrastructures et les semi-conducteurs. D’autres régions développent des agendas industriels et numériques alignés sur leurs priorités locales. Les grands fournisseurs réagissent en proposant des clouds régionaux, des variantes « de confiance » et des partenariats pays par pays. On ne parle plus d’un modèle universel, mais d’un mouvement progressif vers une IT régionalisée, souvent qualifiée de « géopatriation » : rapprocher les capacités sensibles du « pays » tout en restant connecté aux écosystèmes globaux.
En 2026, la question ne se résume plus à un choix binaire entre cloud public et cloud souverain. L’enjeu clé consiste à déterminer le niveau de régionalisation nécessaire pour votre architecture, sur quel périmètre, et avec quelle marge de manœuvre si le contexte devait à nouveau évoluer.
Lorsque le risque de dépendance vis-à-vis des fournisseurs est clairement inscrit sur la cartographie des risques, avec un responsable identifié, des indicateurs et de véritables scénarios de sortie, il ne relève plus seulement d’une préoccupation technique ; il devient une décision de direction qui engage la compétitivité de l’entreprise.
Trend #5 : SI régionalisé
What to focus on in 2026?
Pendant longtemps, les choix de fournisseurs se situaient à la croisée de l’architecture, des achats et de la négociation commerciale. Les chocs récents sur les prix et les modèles de licence ont montré autre chose : une forte dépendance à un petit nombre d’acteurs se comporte comme n’importe quel risque majeur. Elle peut rogner les marges et affaiblir la position concurrentielle lorsque les conditions changent.
La première étape, en 2026, consiste à cartographier là où vous êtes réellement exposé : quels fournisseurs concentrent l’essentiel de vos dépenses, lesquels hébergent vos workloads ou données les plus critiques, et quelle serait la difficulté à déplacer ce qui compte vraiment. Une fois cette vision consolidée, la dépendance aux fournisseurs peut trouver sa place sur la cartographie des risques, avec un sponsor identifié, quelques indicateurs simples et des options documentées.
À partir de là, les arbitrages régionaux peuvent être discutés concrètement avec le comité de direction, non comme une posture politique, mais comme une manière de protéger les actifs et capacités qui différencient votre entreprise.
Un SI régionalisé ne signifie pas tourner le dos aux hyperscalers. Pour la plupart des organisations, l’horizon réaliste reste l’hybride et le multi-cloud : des plateformes globales pour la majorité des workloads et pour l’innovation, complétées par un périmètre beaucoup plus restreint d’environnements régionaux ou « de confiance » pour ce qui est trop sensible sur le plan légal ou concurrentiel.
En Europe, les clouds de confiance comme Bleu, S3NS ou NumSpot, et leurs équivalents dans d’autres régions, sont suffisamment mûrs pour la production. 2026 est un bon moment pour décider quelles catégories de données et d’applications doivent y résider : plateformes strictement régulées, systèmes qui encapsulent un savoir-faire métier clé, modèles d’IA contenant des secrets industriels. À partir de ces critères, l’enjeu est de définir les landing zones, d’aligner identité et journalisation avec votre cloud principal et de s’assurer que les équipes d’exploitation gèrent ces environnements comme n’importe quel autre.
La clé consiste à rester sélectif. Seule une fraction de votre portefeuille nécessite ce niveau de protection. Transférer ce périmètre restreint peut pourtant réduire l’exposition extraterritoriale et renforcer votre position dans la relation avec les grands fournisseurs, en vous donnant de vraies alternatives pour vos workloads les plus sensibles.
Même si votre paysage cloud et SaaS semble équilibré, l’IA peut, en arrière-plan, reconstruire les mêmes schémas de dépendance. Des API de modèles propriétaires, des plateformes d’IA managées, des services GPU intégrés et des places de marché dédiées vous ancrent progressivement dans un seul écosystème. Au quotidien, tout paraît fluide. Sur la durée, faire évoluer un processus critique construit en logique AI-first ou contester des coûts devient très difficile.
La question de l’autonomie stratégique doit entrer dès maintenant dans les discussions IA, pas dans trois ans. Une façon simple d’aborder 2026 consiste à passer en revue les cas d’usage existants et prévus à partir de deux questions :
- lesquels pourraient, en théorie, tourner sur plusieurs environnements
- lesquels doivent rester sous une juridiction ou un régime sectoriel précis ?
Le second groupe a besoin d’options d’hébergement durables et conformes : clouds de confiance, régions contrôlées chez un hyperscaler ou plateformes internes. Les choix d’architecture pèsent lourd ici : modèles réhébergeables, découplage des briques critiques par rapport à la stack d’un fournisseur unique, documentation claire des chips, clouds et services utilisés par chaque cas d’usage.
L’objectif n’est pas de rompre les liens avec les grands acteurs. L’objectif est de garder une dépendance choisie, explicable et réversible lorsque la stratégie, la réglementation ou l’économie évoluent, au lieu de découvrir trop tard que vous n’avez plus de marge de manœuvre.
Tendance technologique #6
Infrastructures & cloud
Les fondamentaux du cloud sont désormais bien en place dans la plupart des grands groupes. Ce qui change, c’est la pression exercée par les workloads IA : besoins accrus en calcul, volumes de données qui circulent davantage, exigences de latence plus strictes, nouveaux cas d’usage qui doivent tourner au plus près des activités de terrain. Beaucoup d’infrastructures n’ont tout simplement pas été conçues pour cela.
Les directions IT subissent aussi des forces contradictoires. Les hyperscalers multiplient les régions spécialisées pour l’IA et les plateformes managées. Dans le même temps, vos opérations s’étendent sur des usines, des agences, des sites de terrain où les contraintes de connectivité, de gestion de la donnée et de résilience sont fortes. Le résultat, c’est un patrimoine technique qui s’étire entre régions cloud centrales, datacenters on-premise et environnements d’edge computing.
L’agenda 2026 consiste à rendre cet ensemble véritablement « AI-ready » sans entrer dans une course à l’armement GPU. Cela suppose d’étendre le modèle opératoire cloud aux sites qui en ont vraiment besoin, de construire un niveau d’observabilité suffisant pour garder la maîtrise d’une plateforme distribuée, et de traiter la puissance de calcul IA comme une ressource contrainte à piloter, pas comme un acquis.
Tendance #6 : Infrastructures & cloud
Quelles priorités fixer pour 2026 ?
Pour de nombreux cas d’usage IA, exécuter tous les traitements dans une région distante n’est plus réaliste. La supervision industrielle, les contrôles qualité sur site, la maintenance prédictive ou l’imagerie médicale exigent une latence faible et des règles claires sur le lieu de traitement des données. Ces besoins poussent vers des architectures plus hybrides, dans lesquelles certaines capacités cloud sont étendues à des sites clés plutôt que cantonnées aux seules régions centrales.
En 2026, la question opérationnelle devient la suivante : sur quels lieux avez-vous besoin d’un véritable « mini-cloud » en modèle opératoire, pas seulement de quelques serveurs locaux. Ces sites doivent bénéficier de règles cohérentes en matière d’identité, de déploiement et de supervision, afin que les équipes n’aient pas à réapprendre une façon de faire à chaque fois. C’est aussi le bon moment pour réfléchir aux modes dégradés ou déconnectés : ce qui continue à tourner localement si une région ou un lien backbone tombe, et la manière dont on resynchronise proprement une fois la connexion rétablie. Le travail engagé pour ces scénarios renforce à la fois les cas d’usage IA et la résilience globale du SI.
Lorsque la plateforme s’étend sur plusieurs clouds, sur des systèmes on-premise et des sites en edge, plus personne n’a une vision complète. Les équipes bricolent un assemblage d’outils de monitoring locaux et réagissent aux incidents au fil de l’eau. Dans un environnement fortement consommateur d’IA, cette situation devient vite problématique : il faut comprendre d’où vient la latence, où les modèles se comportent de manière anormale et comment les changements se propagent dans la pile technique.
La priorité pour 2026 consiste à élever le niveau d’observabilité, non pas en ajoutant un énième outil, mais en clarifiant ce qu’il est réellement nécessaire de voir. Dans la pratique, cela passe par la convergence des traces, logs et métriques dans un plan de données partagé, par un accord sur quelques golden signals pour les services critiques, et par la capacité pour les équipes plateforme et produit à explorer la même base d’observation. Une fois ce socle en place, l’AIOps et l’automatisation deviennent des leviers crédibles, et non plus seulement des promesses marketing.
Les workloads IA changent l’économie de votre infrastructure. La capacité GPU, le réseau et l’énergie ne relèvent plus de simples détails techniques, ils conditionnent jusqu’où vous pouvez aller sur certains cas d’usage. Tant que cette réalité reste implicite, les coûts et l’impact environnemental risquent d’augmenter plus vite que la valeur créée.
En 2026, une approche plus disciplinée s’impose. Il devient utile de disposer de vues partagées, simples à lire, sur l’utilisation des GPU et accélérateurs, sur leurs coûts et sur les périodes d’inactivité. Le pilotage financier (FinOps) et environnemental (GreenOps) doit être connecté aux projets IA dès le démarrage, pas à la toute fin. Cela s’articule naturellement avec votre agenda de durabilité : recours à des modèles plus légers lorsqu’ils sont suffisants, mutualisation des plateformes plutôt que multiplication de petits clusters isolés, arbitrages explicites lorsque certains cas d’usage justifient vraiment une forte consommation de calcul.
Dans un monde multi-cloud où la résilience devient critique et où même AWS, Azure ou Cloudflare peuvent connaître des pannes, le véritable enjeu stratégique est de concevoir des infrastructures capables de fonctionner de façon autonome, au plus près des sites industriels, grâce à des architectures d’Edge Cloud.
Tendance technologique #7
Préparer l’ère post-quantique
L’informatique quantique ne va pas bouleverser votre IT au quotidien en 2026. En revanche, elle met déjà sous pression l’un des fondements les plus fragiles de votre sécurité : la cryptographie. Les agences de sécurité et les régulateurs convergent désormais vers le même constat. Les principaux algorithmes à clé publique actuels, comme RSA ou l’ECC, ne résisteront pas à un ordinateur quantique de grande ampleur. Ce moment reste devant nous, mais vos données, vos contrats et vos logiciels seront encore là lorsqu’il surviendra.
Dans le même temps, la menace devient plus tangible. De plus en plus d’acteurs sont soupçonnés de mettre en œuvre des stratégies de type « collecter maintenant, déchiffrer plus tard » : ils interceptent aujourd’hui du trafic chiffré ou des archives, dans l’espoir de les casser le jour où les capacités le permettront. Les grandes banques, les acteurs du paiement et certains opérateurs d’infrastructures critiques ont déjà réagi. Ils lancent des pilotes post-quantiques, mettent en place des inventaires de mécanismes de chiffrement et réservent des budgets dédiés.
Pour un DSI ou un RSSI, 2026 ne doit pas être l’année de la panique. C’est l’année où le quantique doit sortir du statut de sujet de labo. L’objectif consiste à éviter qu’un événement quantique à dix ans ne se transforme en projet de crise à trois ans.
La cryptographie post-quantique constitue déjà l’ossature de votre posture défensive. Il devient nécessaire de lancer une ou deux expérimentations concrètes dès maintenant pour se préparer à ce qui arrive. C’est la seule façon de ne pas être pris de court lorsque la technologie changera d’échelle.
Tendance #7 : Préparer l’ère post-quantique
Quelles priorités fixer pour 2026?
La cryptographie post-quantique sort progressivement du monde de la recherche. Les premiers algorithmes ont été sélectionnés, des options dites « quantum safe » commencent à apparaître dans les offres des fournisseurs et vos équipes de sécurité reçoivent sans doute déjà des sollicitations commerciales sur le sujet. Le vrai défi ne se situe pas dans les algorithmes eux-mêmes. Il vient du fait que la cryptographie est partout : terminaison TLS, VPN, authentification, signature logicielle, paiements, protocoles industriels, objets connectés, produits tiers.
Dans un grand groupe, ce paysage ne se corrige pas à travers un seul programme. Le mouvement réaliste pour 2026 consiste à inscrire la cryptographie post-quantique dans la feuille de route, avec un sponsor clair, un horizon temporel et un ordre de grandeur d’effort. La première étape passe par la visibilité : localiser les usages de crypto, distinguer les stacks que vous maîtrisez de bout en bout de celles que vous achetez et comprendre les cycles de renouvellement existants. Chaque projet lancé aujourd’hui sans cette vision risque de devenir la migration douloureuse de demain.
Tous les systèmes ne portent pas le même niveau de risque face au quantique. Ce qui compte, c’est la combinaison entre la sensibilité de la donnée et la durée pendant laquelle elle doit rester protégée. Un secret industriel à quinze ans de durée de vie, un dossier médical, un contrat long terme, une clé utilisée pour signer des logiciels ou des firmwares, des archives de transactions financières représentent des cibles idéales pour un adversaire qui collecte maintenant pour déchiffrer plus tard.
C’est ce qui explique que les premiers programmes sérieux émergent du côté de la finance et des infrastructures critiques. Ces acteurs manipulent des données et des transactions qui garderont de la valeur bien après l’arrivée de machines quantiques opérationnelles. En 2026, la priorité consiste à repérer, dans votre organisation, où se trouvent ces secrets de longue durée de vie et comment ils sont protégés aujourd’hui. À partir de là, une trajectoire de migration peut être esquissée : clés à renouveler en priorité, protocoles à faire évoluer, solutions tierces à challenger.
Ce travail prendra des mois, parfois des années, et mobilisera plusieurs équipes. L’amorcer maintenant permet d’éviter les changements précipités et risqués plus tard.
La cryptographie constitue l’angle le plus urgent, mais ce n’est pas le seul. Des banques, des assureurs, des industriels ou des acteurs de la logistique financent déjà des pilotes sur l’optimisation de portefeuilles, la modélisation de risques, le routage ou la recherche de nouveaux matériaux, en s’appuyant sur du hardware quantique ou sur des algorithmes dits « quantum inspired ». La plupart de ces projets restent exploratoires et menés avec des partenaires spécialisés, mais ils s’accompagnent désormais de vrais budgets, pas seulement de slides d’innovation.
Une stratégie quantique exhaustive n’est pas indispensable en 2026. Une courte liste de domaines où une simulation plus rapide ou une optimisation avancée ferait vraiment la différence devient en revanche utile, ainsi qu’une ou deux expérimentations concrètes avec vos données et vos modèles. Ces premiers pas contribuent à développer les compétences internes, à tester les écosystèmes de partenaires et à éviter les mauvaises surprises lorsque la technologie gagnera en maturité.
Sur toute cette trajectoire, la cryptographie post-quantique reste le fil conducteur. Elle constitue la couche défensive qui protège les actifs d’aujourd’hui pendant que vous explorez les possibilités de demain.
Vous voulez transformer ces tendances technologiques en feuille de route concrète pour votre organisation ? Nos équipes peuvent vous aider à prioriser et à passer à l’action.
Cet article est le fruit d’une intelligence collective. Chez Wavestone, nous donnons toute sa place à la passion et croyons intimement en la force du partage d’idées. Merci à nos experts pour le temps précieux qu’ils ont consacré à imaginer, ensemble, les tendances tech de demain.
Un grand merci à Paul Barbaste, Gérôme Billois, Ronan Caron, Florian Carrière, Ghislain de Pierrefeu, Benoit Durand, Julien Floch, Matthieu Garin, Noëmie Honoré, Imène Kabouya, Marie Langé, Franck Lenormand, Marcos Lopes, Florian Pouchet, Pierre Renaldo, Frédéric Goux, Jerôme Vu Than et leurs équipes.