跳过正文

英特尔驱动更新:让 iGPU 可分配更多系统内存,赋能 AI 与创作工作负载

Intel IGPU 显卡驱动 AI
目录

随着移动平台不断拓展至 本地 AI轻量级内容创作,英特尔在最新显卡驱动中推出了重要升级:共享 GPU 内存覆盖(Shared GPU Memory Overlay)。该功能允许部分 Core Ultra 笔记本的集成 Arc GPU 使用更高比例的系统内存。

用户可在 Intel Graphics Command Center 中通过滑块自由调整。默认值约为 57%,但在高内存机型上,英特尔官方演示可达到 87%。这一功能旨在缩小集显与独显在内存受限场景下的性能差距,并为开发者及高阶用户在 AI 推理和非游戏任务中提供更大空间。

Intel ARC Graphics


工作原理
#

该机制基于 统一内存架构(UMA),即集显不具备独立显存,而是与系统共享。传统方法依赖 BIOS 中的 DVMT(动态显存技术) 来进行预分配与动态分配。

此次英特尔在驱动层面提供了 用户可控的百分比上限,实质上允许 iGPU 在高负载下“借用”更多系统内存。开启此功能需安装最新驱动并重启,部分 OEM 可能仍会在 BIOS 中设置最大上限。需要强调的是,这仅仅提升了 容量,并不会增加 带宽 或降低 延迟 —— CPU 与 GPU 仍然共用同一内存控制器与总线。


实际影响
#

游戏场景
#

对于纹理需求高的游戏,增加容量可减少频繁的数据交换,从而降低卡顿。但也存在风险:部分游戏引擎会检测到更多可用显存后,主动加载更高分辨率的纹理或更长的缓存队列,反而可能 抵消收益 或导致 帧时间波动。带宽仍是瓶颈,尤其在使用 LPDDR5/5X 的轻薄本上,128-bit 总线在 7.5–8.5 Gbps 下理论带宽约为 100+ GB/s,CPU 与 GPU 对内存的竞争并不会因“更大池子”而消失。

非游戏场景
#

AI 与创作任务 中,容量往往更为关键。图像生成、视频渲染、科学可视化、本地 LLM 推理 等任务通常受限于模型权重和中间数据的庞大内存需求。提高 iGPU 内存上限可让更大的模型或更高分辨率的数据集得以运行,实现更多离线任务,而无需依赖云端。

但运行速度仍由计算单元、矩阵加速指令,以及 OpenVINO、oneAPI 等框架决定。充足的内存只是“能运行”的前提,并不意味着“运行更快”。

Intel ARC Graphics


对比 AMD
#

AMD 的 Ryzen AI 平台也具备 可变显存分配,可按需动态分配系统内存至集显。结合 AFMF 帧生成 等驱动级功能,AMD 已展示在部分游戏中可提升帧率。两者的共同点在于利用 UMA 的灵活性扩大有效显存池,但收益高度依赖于具体工作负载、引擎调度与带宽延迟瓶颈。


使用建议
#

将更多内存分配给 GPU 会减少操作系统与后台应用可用内存。对于 32GB 或 64GB RAM 的机型,更高比例设置是可行的;而 16GB 的设备也可尝试,但应逐步调整,并通过任务管理器观察应用与显存占用情况。若发现应用内存不足或切换任务变慢,应及时调低比例。

由于 OEM 厂商可能对最大值进行限制,建议参考设备手册或 BIOS 设置。


总结
#

通过将原本位于 固件层 的内存分配开关下放到 驱动与控制面板,英特尔降低了尝试与回退的成本。对用户而言,这一功能主要解决了 “装不下” 的问题;而对开发者来说,则需要优化资源检测与质量缩放,避免因“显存多了”而盲目加载更大资源,造成收益递减甚至负面效果。

总体而言,这一功能应被视为一项 可调节工具,而非通用“加速开关”。在 AI 与创作任务中,它能实质性提升离线能力;在游戏中,收益则需视具体引擎、分辨率与资源需求而定。合理使用,才能发挥其真正价值。

相关文章

AI 完全指南
AI 大型模型 AIGC 算力 Token
英特尔 Nova Lake 移动端产品线曝光:覆盖 6 到 28 核,涵盖 U、H、HX 三大系列
Intel Nova Lake Nova Lake-U Nova Lake-HX Nova Lake-H
KIOXIA四日市工厂拥抱AI,引领智能制造新时代
KIOXIA 智能制造 AI