AMD 正式发布了全新专业显卡 Radeon AI Pro R9700,该产品专为加速 AI 工作负载与高性能计算(HPC)而设计,定位于 AI 开发者、数据科学家以及技术发烧友。
R9700 基于 RDNA 4 架构,采用 Navi 48 芯片,核心规格如下:
- 64 个计算单元(共 4096 个流处理器)
- 128 个 AI 加速单元
- 300W 总板卡功耗(TBP)
- 32GB GDDR6 显存,256 位宽位宽接口
相比前代 Radeon AI Pro 9070 XT,显存容量翻倍。计算性能方面,R9700 可提供:
- FP32 性能:47.8 TFLOPs
- FP16/BF16 性能:191.4 TFLOPs
- FP8 性能:382.7 TFLOPs
- INT8 性能:382.7 TOPS
- INT4 性能(启用稀疏结构):可达 1531 TOPS
此外,R9700 支持 Wave Matrix Multiply Accumulate(WMMA) 指令集,进一步提升 AI 模型推理效率。
为大规模 AI 工作负载而生 #
32GB 显存配置使 R9700 能轻松处理如下复杂 AI 模型:
- DeepSeek R1 Distill Qwen 32B Q6
- Mistral Small 3.1 24B Instruct 2503 Q8
- Flux 1 Schnel
- SD 3.5 Medium
实测数据显示,R9700 在 DeepSeek R1 任务中推理速度比 Radeon Pro W7800 快 2 倍,在某些场景中甚至比配备 16GB 显存的 RTX 5080 快 5 倍。AMD 强调,在支持 6-bit 精度的前提下,32B 模型的推理精度优于 8B 模型;而使用 FP16 运算的 8B 模型在图文生成等任务中,也显著优于 1B 模型,显示出大显存对模型质量的关键性影响。
扩展性与兼容性 #
R9700 支持 PCIe 5.0 接口,并可扩展至 四卡并联配置,实现 128GB 显存共享池,足以运行如 Mistral 123B 和 DeepSeek R1 70B 等需要 112–116GB 显存的大型模型。
这款显卡采用 双槽位设计,配备 涡轮风扇散热器,预计将于 2025 年 7 月 开始上市,合作厂商包括华硕、华擎、技嘉、讯景、蓝宝石、撼讯及盈通。
ROCm 软件生态与产品协同 #
Radeon AI Pro R9700 是 AMD 全面 AI 战略的重要一环,其背后是强大的 ROCm 7 软件栈。AMD 当前 AI 加速产品线分为三类:
- Ryzen AI MAX APU:用于中小型大语言模型(LLM)
- Radeon AI Pro GPU:用于边缘推理和多卡中型 LLM 部署
- Instinct 加速卡:用于数据中心大模型推理与训练
搭配新品处理器:Ryzen 5 9600X3D 与 Ryzen 9000 PRO 系列 #
除了显卡新品,AMD 还推出了基于 Zen 5 架构的 Ryzen 5 9600X3D。该处理器采用 3D V-Cache 技术,拥有 6 核 12 线程,延续了人气产品 Ryzen 7 5800X3D 的游戏优化优势。预计配备 64MB L3 缓存,在游戏和高负载应用中能显著降低延迟。
面向商用市场,AMD 同步推出了 Ryzen 9000 PRO 系列,具备更强的安全性和可管理性,适用于企业级工作站和服务器。
游戏与 AI 的双线发展战略 #
AMD 还公布了为 Xbox 打造的游戏芯片路线图,表明其在游戏市场的持续投入。Ryzen 5 9600X3D 和 Ryzen 9000 PRO 系列的完整规格尚未公开,预计将在 2025 年第三季度正式发布,届时将与 R9700 显卡形成协同效应,进一步巩固 AMD 在高性能计算与 AI 市场的领先地位。
Radeon AI Pro R9700 的发布,展现了 AMD 在 AI 和计算性能上的持续投入。凭借高容量显存与强大算力,R9700 能有效满足 AI 模型日益增长的资源需求,而 Ryzen 5 9600X3D 与 Ryzen 9000 PRO 系列则为游戏玩家和专业用户提供了更高效的处理器选择。无论是在消费级还是商用市场,AMD 都持续扩展其高性能硬件版图,为技术发烧友提供更多元、强劲的解决方案。