Malgré la domination de Nvidia, AMD accélère dans l’intelligence artificielle avec des innovations matérielles, des alliances stratégiques et un écosystème logiciel ouvert.
En bref
- AMD multiplie ses revenus datacenter grâce aux GPU Instinct et aux CPU EPYC.
- Ses nouvelles puces MI350/M355 rivalisent avec les références Nvidia en mémoire et performance inference.
- L’écosystème open source ROCm séduit Microsoft, Meta et Azure, rivalisant avec CUDA.
- Malgré les avancées, des restrictions à l’export vers la Chine pèsent sur ses revenus.
- Objectifs ambitieux : jusqu’à 20 % de part de marché IA et multiplications des revenus d’ici 2028.
AMD, longtemps cantonné à l’ombre de Nvidia dans le domaine de l’IA, est désormais un acteur déterminé à se faire une place. Grâce à ses GPU Instinct, ses CPU Epyc et son logiciel ROCm, AMD ne cherche plus à suivre mais à rivaliser. Mais dans un secteur où l’emprise de Nvidia sur le matériel et le logiciel reste écrasante, AMD peut-il vraiment inverser la tendance ?
L’essor des puces AMD Instinct et des CPU Epyc
Les accélérateurs Instinct MI350 et MI355 se distinguent aujourd’hui par une mémoire HBM3E jusqu’à 288 GB et une bande passante de 8 TB/s, ce sont des chiffres qui rivalisent, voire surpassent ceux de la gamme Blackwell de Nvidia.
Ce matériel est déjà déployé massivement chez des géants comme Meta, Microsoft, OpenAI ou Oracle, tandis que leurs performances inference (tokens par dollar) sont annoncées jusqu’à 40 % supérieures à celles des GPU Nvidia B200.
Lire aussi :
10 Leçons de réussite du patron de NVIDIA
Une montée fulgurante dans le datacenter
Le chiffre d’affaires datacenter d’AMD a crû de 57 % au premier trimestre 2025, ils atteignent 3,7 milliards de dollars, une progression tirée par les EPYC et Instinct. Malgré des pertes estimées à 1,5 milliard dues aux restrictions à l’export vers la Chine, AMD parvient à maintenir sa dynamique avec une projection de ventes IA multipliées par cinq d’ici 2028.
ROCm : l’avantage logiciel open source
Face à la domination de CUDA de Nvidia, AMD construit son propre écosystème logiciel ouvert via ROCm, compatible avec TensorFlow et PyTorch, cela représente un atout stratégique pour attirer les développeurs. Les versions récentes de ROCm offrent d’impressionnants gains de performance sur les LLM, tout en allégeant le verrouillage propriétaire.
Alliances et acquisitions pour se renforcer
AMD noue des partenariats clés avec Microsoft, Meta, Oracle, Dell, HPE ou Lenovo, pour déployer ses solutions IA à grande échelle. L’acquisition de Silo AI (lab finlandais) et de ZT Systems (ingénieurs rack-scale) structure son offre IA complète, du chip au système en rack.
Voir également :
AMD vs Intel à couteau tiré dans guerre des architectures ISA
Les freins persistants et les défis à surmonter par AMD
Le principal obstacle d’AMD reste l’écosystème CUDA de Nvidia, bien implanté et difficile à remplacer. Par ailleurs, les exportations bloquées vers la Chine ont coûté plusieurs centaines de millions de dollars et limitent temporairement l’expansion géographique.
AMD est aujourd’hui un challenger sérieux sur le marché de l’IA, avec des atouts matériels, logiciels et stratégiques solides. Mais pour rivaliser réellement avec Nvidia, il lui faut renforcer son écosystème, traverser les barrières géopolitiques, et fidéliser une communauté de développeurs.
Foire aux questions (FAQ)
Q. Quelle est la part de marché actuelle d’AMD dans l’IA ?
AMD détient environ 14–15 % du marché des puces IA, avec des projections allant jusqu’à 20 % d’ici 2028 si les tendances se poursuivent
Q. Quels sont les avantages clés de ses puces MI350/MI355 ?
Elles offrent une mémoire massive (288 GB HBM3E), une bande passante jusqu’à 8 TB/s, avec des gains en inference performance et en coût par token jusqu’à 40 % supérieurs aux GPU Nvidia B200.
Q. Que vaut l’écosystème ROCm par rapport à CUDA ?
ROCm est en croissance, offrant une alternative ouverte et compatible à TensorFlow et PyTorch. Il intègre de puissantes optimisations récentes, mais reste encore en montée par rapport à l’écosystème mature CUDA
Q. Quel impact ont eu les restrictions à l’export vers la Chine ?
Elles ont entraîné des pertes évaluées entre 800 millions et 1,5 milliard de dollars en revenus en 2025, notamment sur les ventes de GPU MI300/MI308.
Q. Quelle est la feuille de route IA d’AMD ?
Après les MI350 en 2025, AMD prévoit le lancement des MI400 (2026) et du système rack « Helios », intégrant CPU Epyc, GPU Instinct et solutions réseau Pensando pour fournir une infrastructure IA complète









