图形工作站、集群应用方案
  • 网站首页
  • 商城
  • 产品
  • 行业计算
  • 科学工程计算
  • 化学&生物
  • 图形设计
  • 图像处理
  • 视景仿真
  • 人工智能
  • 影视后期
全球领先的高端图形工作站供应商

免费测试 热线 : 400-7056-800 【 为任何应用提供 最快计算设备 如不符,退货】【最新报价】【选购指南】【京东商城】



企业通用模版网站

  • 科研团队全能超算平台25v1
  • 超高分拼接 数字孪生
  • 科学计算MatLAB工作站24
  • 地质建模 油藏模拟工作站
  • 工业CT扫描 机器视觉计算
  • 电力系统关键应用配置24
  • 网站首页
  • 商城
  • 产品
  • 行业计算
  • 科学工程计算
  • 化学&生物
  • 图形设计
  • 图像处理
  • 视景仿真
  • 人工智能
  • 影视后期
  • 送无人机啦 8核6.4GHz  96核4.8GHz 加速改装 

  • 高性能集群 虚拟并行计算 芯片设计 光学仿真 

  • 蛋白质预测 生物信息 冷冻电镜 材料模拟

  • RSS订阅
  • 理科计算推荐
  • 仿真计算最快最完美25v1
  • 电磁仿真单机与集群25v1
  • 航拍实景建模单机集群
  • 遥感图像处理工作站集群
  • 4K/8K剪辑特效调色24v1
  • AI大模型工作站集群25v1
  • Abaqus硬件配置大全24v3
  • CST电磁仿真工作站25v1
  • 多物理场仿真单机与集群
  • 流体/空气动力学仿真25v1
  • 量子化学 分子动力模拟
  • 三维设计24v2  3D打印

 

您的位置:UltraLAB图形工作站方案网站 > 人工智能 > 深度学习 > NVIDIA的2017规划 整合"CPU到GPU中"?

NVIDIA的2017规划 整合"CPU到GPU中"?

时间:2009-12-13 13:46:00   来源:UltraLAB图形工作站方案网站   人气:8658 作者:admin

10月28日 NVIDIA在中科院做了一个关于GPU计算的研讨会,会上NVIDIA的CEO黄仁勋和首席科学家Bill Dally分别作了一个演讲,黄仁勋的演讲主要集中在GPU计算的现在,而Bill的演讲更多地讲到了GPU计算的未来可能发展的趋势。按照Bill的说法,现在CPU的性能发展已经进入到一个瓶颈阶段,而未来的处理器将会主要采用并行处理器(如GPU)进一步提升性能。在演讲后面有一个NVIDIA未来GPU的展望的一页,里面说道在2017年ExaScale GPU的可能规模:

在300W的GPU中将整合2400个core,共有7200个FPU单元,性能将达到40T单精度浮点数和13T双精度浮点数的量级。其实这个并不是最重要的,最重要的是这个演讲显示未来的NVIDIA的GPU中将会整合进多个CPU 或者多个CPU核心。

当然大家都知道NVIDIA并没有CPU,因此其GPU会依赖于Intel和AMD的CPU以及他们的平台。当然,NVIDIA的说法是CPU+GPU的异构计算系统才可以获得最高的效率,但是问题没有掌握CPU的资源就没有掌握平台,而且在大规模计算架构中,也需要混合部署CPU和GPU的服务器,计算密度难以提升。失去了平台就会处处受制于人,比如Intel和AMD也可以通过平台的规格来限制GPU的实际计算能力的发挥,比如简单地将PCI-E的性能提升速度降低,就可以直接限制GPU和CPU的数据传输能力,从而限制GPU实际能力的发挥。

Fermi这一代的GPU实际上已经具备了相当程度的CPU的特征,也有些人正在研究将Linux修改后直接运行在Fermi中,但是目前看起来绝大多数基于Fermi的平台还是会采用传统的CPU+GPU的模式,这就给Intel和AMD利用平台的优势限制NVIDIA GPU的机会。要解决这个问题,有人正在研究使用ARM CPU+Fermi GPU的方案。ARM CPU的能力很弱,但是Fermi的可编程能力却很强,因此可以让ARM CPU的任务仅仅是跑OS、驱动程序和启动Kernel,计算任务完全在Fermi GPU上跑,可以将很小体积的ARM系统直接整合到Fermi服务器中,从而获得更高密度的部署并且解决CPU依赖的问题,ARM的低功耗还可以降低整个系统的功耗。不过这种方案的问题是ARM的计算和内存等性能实在太弱,而且也没有高性能的输入输出接口,PCI-E也需要专门的桥接芯片,相信这种方案仅仅适用于有限的应用中。
 

从长远的角度来看,NVIDIA要解决CPU的依赖型的问题,具备自己的CPU是必然的事情。虽然在提问中我们问了Bill关于NVIDIA是否会在近期就在GPU内整合CPU的问题,Bill用Tegra打起了太极,而且说明在现阶段较难做到,但是并没有否认下一步会这样做。我们是否可以认为在下一代的NVIDIA GPU内部会整合进一个或者几个CPU核,从而彻底解决CPU依赖的问题呢?

虽然Intel和AMD都在推CPU整合GPU的方案,但是这些方案都是一个大CPU整合一个小GPU的方案,主要是提供低成本和低功耗的低端解决方案。而在未来一段时间GPU和CPU在基本架构上很难融合情况下,也许一个类似于Fermi这样的大GPU整合进一个较小的CPU(比Larrabee的标量处理单元强,类似于主流CPU核),是面向高端图形和高性能计算的一个新颖的思路。我相信没有NVIDIA主动采取这样的措施,Intel和AMD绝难这样做,因为现在高端的CPU才是他们的最大收入和利润来源。我们期望NVIDIA在未来继续在计算机架构上进一步创新,这也许会给业界带来一轮新的变革,否则持续保持现有的PC架构,则NVIDIA的路会越来越艰难

关闭此页
上一篇:CPU和GPU擅长和不擅长的方面
下一篇:Fermi不仅是GPU 十问NVIDIA首席科学家

相关文章

  • 05/12UltraLAB定制图形工作站产品介绍2025v2
  • 05/09Xeon6代+4块GPU--图灵超算工作站GT450M介绍
  • 05/09汽车风阻测试模拟分析、算法,及服务器/工作站计算设备硬件配置推荐
  • 04/26高频交易(HFT)应用分析、算法,服务器/工作站硬件配置推荐
  • 04/25衍生品定价与风险对冲应用分析、算法,及服务器工作站硬件配置
  • 04/25量化交易策略应用算法分析、服务器工作站硬件配置
  • 04/24金融风险管理应用算法分析、服务器/工作站硬件配置推荐
  • 04/19油藏模拟软件的算法分析以及图形工作站/服务器硬件配置推荐25v2
  • 04/17大型3D设计软件CATIA-算法分析与图形工作站硬件配置
  • 04/17Cadence EDA主要软件计算特点分析,服务器/工作站硬件配置推荐

工程技术(工科)专业工作站/服务器硬件配置选型

    左侧广告图2

新闻排行榜

  • 1如何在本地运行 Llama 3 8B 和 Llama 3 70B及硬件配置推荐
  • 2NVIDIA GeForce GTX 280测试报告
  • 3比GTX280快10倍-Quadro VX200专业卡评测
  • 4深度学习训练与推理计算平台硬件配置完美选型2020v1
  • 5高性能仿真计算集群(结构、流体、多物理场耦合)配置推荐2024v1
  • 62019年最快最全深度学习训练硬件配置推荐
  • 7Llama-2 LLM的所有版本和硬件配置要求
  • 8支持7块RTX3090静音级深度学习工作站硬件配置方案2021v2
  • 9HFSS电磁仿真应用与工作站配置方案
  • 10解锁最大推理能力:深入研究80GB A100 GPU 上的Llama2–70B

最新信息

  • 性能直逼6710亿参数DeepSeek R1--- QwQ-32B推理模型本地硬件部署
  • 史上最神的AI静音工作站---算命、炒股、看病、程序设计、销售策划、仿真计算、3D设计、药物设计、基因测序、大数据分析
  • 用中文训练更快-满血版Deepseek R1本地部署服务器/工作站硬件配置精准分析与推荐
  • DeepSeek R1训练和推理一体式服务器/工作站硬件配置、部署具体步骤
  • DeepSeek V3推理和训练一体式服务器/工作站硬件配置、部署具体步骤
  • DeepSeek R1/V3应用-服务器/工作站/集群配置推荐
  • 生成式AI热门应用、算法及对计算机硬件配置要求
  • llama3.2本地系统+软件安装运行、主要应用、计算硬件要求、最新GPU服务器配置参考

应用导航:

工作站产品中心 京东商城 中关村商城 淘宝商城 超高分可视化商城 便携工作站商城 ANSYS CATIA Microsoft INTEL NVIDIA 网站统计

公司简介-业务咨询-招聘英才-资料下载-UM-

本网站所有原创文字和图片内容归西安坤隆计算机科技有限公司版权所有,未经许可不得转载
陕ICP备16019335号 陕公网安备61010302001314号
Copyright © 2008-2023 , All Rights Reserved

首页
热线
商城
分类
联系
顶部