您好、欢迎来到现金彩票网!
当前位置:双彩网 > 向量处理器 >

如何评价英特尔自研独立显卡?

发布时间:2019-07-01 05:57 来源:未知 编辑:admin

  最近,Intel挖走了AMD显卡业务负责人Raja Koduri,任命其为核心与视觉计算事业部首席架构师、高级副总裁,重返独立显卡市场的野心昭然若揭。 近日在旧金山举办的ISSCC 2018国际固态电路大会上,Intel首次公开披露了新一代独立显卡设计思路和原型,仅做技术研究与概念之用,但也算是正式宣布杀回独立显卡了。 [图片] [图片] [图片]

  前几年Intel Larrabie想找我们做代工,最后打了几片Sample,后来又做了几片kinghts之后不了了之。

  首先就是驱动兼容性的问题。Larrabie与市面上至少有大约5成的主流游戏或多或少都有兼容性问题。别说Intel有调核显驱动的经验,核显驱动也成问题。只是核显本身也跑不动几款游戏,即便跑也开不了高特效,所以有些兼容性问题,不理会问题也不大。但高性能独显不能不解决。这样调了一年还没什么进展。

  从生产到角度来说,Larrabie会将绝大多数AIB/AIC排除在门外。一片卡上要打3000多个点,密度太大。相比于1080这个级别的卡,翻了一倍。一是很多物料本身很难采,产量也不高,随时可能碰到缺料停工问题,能买到成本也很高。二是业内较常见的高端SMT,像842E这个档次的,完全无法胜任。必须要引进新的流水线,良率也是个问题。这就导致加工成本居高不下,对于消费类显卡来说是很成问题的一件事。

  第一个问题,我感觉也有点困难。驱动问题连AMD也经常出问题,NV也时不时有些小BUG,这还是两家有祖传调试经验、与游戏开发团队亲密合作的结果。Intel我觉得不是我一两个人就能搞定这么简单的事。

  至于展出的问题,展就展吧。Intel自己也说研究用。看样子自己也没啥底气。离上市开售还早得很。反正众核的东西,就算不成功,改改当运算卡,走商业和科研市场,也不算技术浪费。

  从架构上看,现代的 GPGPU 实质上是一个大规模的向量处理器,恰好处在 Intel 擅长的多核处理器和众核处理器之间。而从编程模型上看,CUDA 和 OpenCL 将向量计算抽象成了大规模的线程模型,相较于传统的向量指令,对于程序员和编译器都要友好很多。

  而从商业模式上看,GPU 既可以玩游戏又可以做高性能计算,于是同一款架构设计可以满足完全不同的两个市场。这意味着游戏市场上的巨大销量可以用来维持 GPU 这一类大规模芯片的设计成本,而高性能市场则带来了丰厚的利润。

  反观 AMD 和 Intel,前者的 GPU 多为游戏卡(挖矿买的也是游戏卡)因而只能达到温饱水平,而后者的高性能处理器 Xeon Phi 却因为没有消费市场的支持,很难通过走量来降低成本。

  所以综合技术和商业的考量,量产的大规模向量处理器只有 GPGPU 这一条路,Intel 没有选择只能迎合这个趋势。

  我觉得不ok,老黄家的cuda已经成熟,农企的价格定位又很明确,牙膏厂已经很难插手了

  老黄垄断顶级绘图卡,苏妈也通过vega64固定了中高端显卡加速市场,牙膏厂如果想要有一席之地,至少要有个vega56的性能,但是看pcb设计我觉得还是悬,占领市场无望

  由于独显市场缺乏竞争,老黄把显卡当LV卖,现在intel过来掺乎一脚,如果2020年之后能够形成三足鼎立的态势,那时候估计我就买得起老黄的1080/1280了.

  不要觉得intel搞不定目前的两个顶端显卡对手,独显他们二只独秀的原因一方面是他们修为高,另一方面也是intel将重点放在了移动核显方面,核显方面几乎没有那两兄弟什么事儿.

  现在intel转过头也要来搞独显,技术,架构这些都不是事儿,钱到位了,圈圈里那几个牛人夹到了intel碗里就水到渠成了,除开极个别的大牛,一般情况下技术和人才都不会跟钱过不去,你说呢……

  土豪耍流氓,看点满满槽点满满,吃瓜群众受益,有竞争才有进步!名字序列都替intel想好了:

  在经过了10年之后,Intel终于明白过来,GPU才是向量处理器的未来!!!

  GPU这种“细粒度多线程向量处理器”对于访存延迟的隐藏能力、数据吞吐能力以及成本优势,是诸如Imagine那种“静态向量流处理器”,或诸如Larrabie那种“同时多线程向量处理器”,或号称可模拟地球的IBM Cell那种“多核心单线程静态向量流处理器”,等等等辣鸡们完全不能比拟的。

  Intel终于明白,GPU才是通向Deep Learning(“预测”的商业价值远远大于“训练”的商业价值)、BlockChain、或更多向量计算场景的的必经之路,而不是CPU。所以如果你只有CPU业务,即便这个CPU上有AVX65536,也跟Deep Learning或更多向量计算场景没毛关系。

  所以,Intel做高性能GPU,其主要目标并不是只瞄准实时光栅图形学市场,也就是说Intel做显卡的目的不是为了让屌丝玩游戏用的,人家做独显GPU最重要还是配合它All in Deep Learning的公司战略。你看,即便在Intel裁员1.2万人的情况下,Intel对Deep Learing产业链上的公司还是不惜重金进行并购,包括Intel连续并购Mobileye、并购Nervana等等一系列并购案,都是为了All in Deep Learning,All in 向量计算。试想,如果Intel没有高算力的GPU,那拿什么支撑未来面向向量计算场景的科技树?

  当然,对计算机图形领域来说,向量处理器也是下一代全局光照明渲染技术的基石。相信Intel也看到这些变革了。

  所以高性能GPU必然是要有的!看着吧,在向量计算领域,Intel未来还会有更大的动作。

  当然,如果你是冲着游戏来这个话题的,那还是回家玩PS4吧,因为你关注的GPU和Intel关注的GPU,根本不在同一个维度。

  如果关注游戏用的独显GPU,肯定还要看nVIDIA和AMD。毕竟专业的事情,交付给专业的公司。而对于很多硬核游戏玩家来说,其实更关注下一代游戏GPU的算力应该是什么样?我们在预测PS5硬件和GPU的帖子中,做过一些简单的计算和预测,可以扩展阅读这里

  当然,有人担心驱动肯定是Intel独显GPU的大坑!但我并不担心驱动,因为这次独显是纯标准的现代GPU架构,不是LRB那种伪GPU架构,所以我是不怀疑Intel为标准GPU硬件打造D3D驱动的能力,毕竟Intel集显GPU win驱动玩了那么多年,在业内,标准GPU驱动所需要的Corner Case测试和技术积累是足够用的。(OGL驱动单说)

  但之所以不看好,是担心这块独显GPU的成本控制、可制造性的良率、以及出货价格。

  要知道,在未来10~15年后,X86即将退出历史舞台,这基本算是业界核心人士们共识。在此之际,Intel的企业战略转型是必须的。而为下一代计算场景打造“通用向量计算平台”以及面向Deep Learing等应用场景的配套解决方案,就是Intel给出的答卷。

  当然,在此之际,除了All in 向量计算外,Intel对于下一代计算平台中其他方向的“试错”也是不遗余力,包括并购Altera也是“试错”之一。但事实证明,基于FPGA的“可重构计算”,在集成电路时代就是“伪命题”(如果是集成光路、或光电混合工艺,那单说)。伪命题的根本原因就是因为成本。包括RTL Code编译综合后在FPGA中各种Routing的物理成本,包括程序猿Coding、Debug以及代码维护时的人力成本,都是具有致命缺陷。

  FPGA做做样机、原型机或小批量市场需求验证机可以,但是从各种“量产”角度来看,包括能否像量产Python代码、C++代码甚至shader代码的角度来量产RTL代码的角度来看,这东西都是不合格的,就更别提fgpa上极高极高极高的DEBUG难度了。所以,这东西完全无法像GPU这样被程序员大规模接受。

  所以,培养一个FPGA工程师比培养一个gpgpu工程师难度高N倍。所以,没有公司愿意承担更多的人力风险。

  最终,这些都是“量产”的限制。在工业化时代,不能量产的xxx都是耍流氓。但这个话题已经远远超出本帖,所以不就此展开。

  在GPU架构发展史上有三大基石,促成了这一点:(以下讨论不包含SGI公司和OGL标准)

  2000年,D3D图形编程接口引入了Vertex Shader。这直接导致了GPU进入可编程时代。

  2003年,由于D3D图形编程接口同时存在Vertex\Pixel Shader。这直接导致了架构工程师需要寻求一种Unified Shader Unit解决方案,来解决两种类型的EU在游戏中负载不均衡的问题。而要想做统一渲染架构,那前提是,GPU内部的EU计算单元,不再区分处理的数据,究竟是像素还是顶点,只当成当成向量计算来处理。所以,此时各家GPU不约而同的选择了将EU架构从Horizontal mode转向Vertical mode。这最直接的好处有两点,

  成为统一渲染架构。EU处理数据时,不再区分哪些数据是顶点,哪些数据是像素。

  2003年的这次变革,我认为是GPU从可编程图形处理器变为可编程向量处理器的过程中

  的最关键的一步。即,没有Vertical Mode,后面一切的通用向量计算架构统统免谈

  ,什么CUDA、OpenCL、Computer Shader……等等统统统统都免谈。

  2009年,DX图形接口引入了computer shader。这个大家太熟知了,完全就不用说了。

  当然,在未来,当图形编程接口已经可以支持软件工程师随意从D3D\OGL图形流水线中任何Stage节点,进行Stream In\Out的时候,那GPU奔向通用向量处理器的日期也就为时不远了。

  立帖为证,X86会随着传统PC市场的不断萎缩(连续6年的平均年萎缩率高达7%),逐步迎来他的末日。“虚拟化\虚拟机 + ARM + 基于通用向量计算的GPU”,这三者会瓜分并取代X86在下一代计算平台的统治地位。

  也有人问,谷歌深度学习都出TPU了,GPU的向量梦肯定是药丸,区块链也有专门的矿机,GPU的向量梦肯定也是药丸。

  首先,区块链不等于比特币,区块链的POW、POS算法有很多种,矿机能支持几种。未来的区块链都是支持智能合约了,算法随时可以通过投票改变,ASIC矿机秒变废铁。

  其次,谷歌TPU与GPU对比测评已出,自己看图,谷歌TPU的在预测计算上优势在哪儿呢?

  最后就是普及度的问题,全世界没有任何一种纯向量机架构的硬件,其普及度能超越GPU了。

  所以,你要明白,为什么当年IBM Cell停止开发,为什么流行一时的physx物理加速卡厂商最终失败后被nVIDIA并购,为什么Intel花10亿美金打造的LRB最终项目终止?就是因为Cell、physx、LBR在向量计算领域完全无法与GPU相比,在通用向量计算领域,无论是性能还是成本,GPU都默秒全!!!

  GPU这种“细粒度多线程向量处理器架构”,是过去、现在、以及未来至少10年内,通用向量处理器的唯一正确的架构,市面上,只有GPU使用了这种架构。

  这就是为什么一个Intel、三星、华为、苹果这种和CG产业不搭边的公司,也要研发自己的图形处理器的根本原因之一。

  Intel之前也不是没搞过独显,甚至到现在ebay上还有工程卡卖,但是后来就不了了之了。相关的技术被并入了Xeon Phi,这货是目前nvidia特斯拉的最大竞争对手,也是美国明令禁止对中国出口的产品。

  如果intel想再次杀入独显市场,无非两条路--给Xeon Phi加上图形输出功能,或者把核显做大。

  核显做大目前来说是不可能了,intel核显的能效比长期落后na两家,纵使intel财大气粗也没有多少改善,以至于最近不得不把AMD的核显集成了进去。

  至于Xeon Phi加图形输出。。。那就更不靠谱了。如果这个架构适合做gpu,当年intel为啥还砍掉了马上就能上市的独显?独显市场看着大,但是毛利率比计算卡小太多了,NV一片特斯拉就要十几万人民币,相比来说1080TI简直跟白送一样了。Intel进入独显市场的话,不但赚不了几个钱,反而会投入大量人力物力去解决各种兼容性和优化问题,我看八成是要亏本的。

  至少在游戏方面不是很看好,AN两家这么多年的图形专利墙是那么容易突破的?

  英特尔挺有钱的。英特尔之前公布了2017财年第四季度及2017财年全年的业绩状况,财报显示其2017财年营收628亿美元,净利润96亿美元。由于各项数据都超过预期,英特尔股价在盘后上涨了4%。

  第二,人工智能研究需求。英特尔收购了Altera、Yogitech、Nervana、Movidius、Mobileye等多家公司,拥有了FPGA等技术。人工智能研究需要用到大量的并行运算的芯片,顺势开发GPU,并不是什么坏事。

  反正做不好,就算是人工智能芯片的科研探索之一,用作科研或者商业使用。如果能够做到市售,那就最好了。如果都做不到,那就...........

  第三,如果英特尔成功研发出可以市售的,独显市场多一个厂商来竞争,没有什么不好的。充分的商业竞争,受益的是消费者。

  第四,如果英特尔失败了,想把研发成本转移到产品上的话。你可以买竞争对手的:CPU考虑买AMD、固态买三星的。至于用作商业用途的产品,emmmmmmmmm,那就只能祝君好了,233333333.

  如果是用通用向量处理器占领加速卡市场的话,英特尔已经晚了。英特尔自己的phi加速卡从架构上说是领先的,然而应用上全面落后,这时转向gpgpu从侧面反应了phi加速卡的失败。

  实际上gpu可以占领向量计算绝大部分市场份额,根本原因是因为有游戏市场早已存在,进行gpu开发的程序员生态比较健康。

  从统一渲染架构开始,硬件层的抽象就已经准备好了,原本开发gpu游戏的这部分人可以低学习曲线斜率地切入通用机算市场,加上nVidia颇有远见,投入主力部队开发好cuda的sdk,软件生态上的优势使得(nVidia的)gpu在新兴的向量计算市场快速攻城掠地。

  而反观近些年来的算力应用需求,我们不难发现:无论是深度神经网络模型的训练,加密货币的哈希计算,还是传统的游戏渲染,都无一例外需要高性能向量处理器。

  独立GPU做了一百年了都没做出来。08年的时候就放风做Larrabie,结果最后做出来一堆Xeon Phi……

  来来来intel,咱们先来讨论一下,您那核显驱动那么渣,打算啥时候修啊?

  intel的核显,对我来说,这两年干的最漂亮的,就是视频转码速度真叫一个快,质量这还凑合,我那老旧的v880总算能480p看电影了。

  除此之外,论intel核显近十年来的进步。。。我管他是gen4还是gen9+,4EU还是48EU,21gflops还是1152gflops,跟咱没关系,咱也就用它办公刷网页,隔壁老黄能拿出15T的卡,咱一般也不用核显玩游戏。

  仅仅CPU一条路走不通,这一点AMD的策略是对的,异构计算,用GPU分担并行计算功能是正确的选择,只不过AMD心有余而力不足。

http://chinoamobi.com/xiangliangchuliqi/211.html
锟斤拷锟斤拷锟斤拷QQ微锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷微锟斤拷
关于我们|联系我们|版权声明|网站地图|
Copyright © 2002-2019 现金彩票 版权所有