nvidia directx 11,从DirectX看NVIDIA显卡的发展(下)

从DirectX看NVIDIA显卡的发展(下) - 电脑术语 - 电脑教程网

从DirectX看NVIDIA显卡的发展(下)

日期:2007-01-08   荐:
  时光飞逝,2001年还是风光无限的GeForce4 Ti和RADEON 8500已成为明日黄花。刚步入DirectX 9.0时代,NVIDIA和ATI就来了一场绝世大战——技术战、市场战、口水战一刻都没停息过。在这场恶战中,双方均伤亡惨重,失败之作是一批又一批。直到今天,这场战争仍在继续…… DirectX 9.0时代 关键词: 竞争、压力、失败     2002年,NVIDIA犯了一个巨大的错误,就是过高地估计了DirectX 8的生命期,而没有作好充足的准备。在2002年底,微软的DirectX 9.0一发布,便给NVIDIA带来了巨大恐慌,因为它的主要竞争对手ATI已经推出了首款能完美支持DirectX9.0显卡——RADEON 9700。     在DirectX 9.0中,PS(Pixel Shader,顶点渲染引擎)的渲染精度已达到浮点精度,传统T&L单元被取消。全新VS(Vertex Shader,像素渲染引擎)的编程将比以前复杂得多。PS 2.0具备完全可编程的架构,能对纹理效果即时演算、动态纹理贴图,还不占用显存。PS2.0可以支持160个硬件指令,同时操作16个材质数量(PS1.4只能支持28个硬件指令,同时操作6个材质)。让游戏程序设计师们更容易更轻松的创造出更漂亮的效果,让程序员编程更容易。     2003年,流行的词就是DirectX 9.0。这段时期留给NVIDIA的回忆却不怎么美好,ATI一次又一次地走在技术和性能的前沿,经受着ATI以RADEON 9800为首的显卡一轮又一轮地打击——速度比GeForce FX 5800 Ultra快、噪音比它小、价格比它便宜。NVIDIA一方面则加快了对新技术开发的步伐,直到GeForce FX 5900 Ultra(开发代号NV35)的出现,暂时改变了NVIDIA在技术上落后的局面。     GeForce FX 5900 Ultra虽然没有革命性的技术出现,但和GeForce FX 5800 Ultra相比,显示核心的晶体管数目为1.3亿个,比后者足足多了5百万个。虽然核心速度从500MHz减少到了450MHz,但提高了成品率,显存类型由DDR2改回了DDR,表面上看是一种退步,但GeForce FX 5900 Ultra频率为425MHz的显存能却提供最高每秒27.20 GB的带宽,比GeForce FX 5800 Ultra的16.00 GB/s有了相当大的进步。对于极耗显存带宽的FASS和各向异性过滤等性能的提升会产生明显的效果。显存位宽也从128bit增加到了256bit,搭配的风扇噪音也小了很多。

    在DirectX 9.0时代的初期,NVIDIA受到了前所未有的打击,只是用GeForce FX 5900 Ultra挽回了些许面子,好在NVIDIA的产品十分丰富,牢牢占据了低端市场,一款重要的顶级产品的失败并没有造成全盘皆输的局面。对于NVIDIA来说,这次的打击也并非坏事,有了此次的失败经验后,在以后开发显示核心时,或许会多一分思考,少一分轻率。 DirectX 9.0c时代 关键词: 特效、重生、SLI     进入DirectX 9.0c时代,与以前的DirectX 9.0b相比,DirectX 9.0c最大的特色就是引入了对Shader Model 3.0和HDR(高动态光照渲染)的全面支持。让游戏画面也变得越来越华丽。     这次NVIDIA没有再次倒在ATI的GPU面前,很显然,NVIDIA也不会给ATI任何机会,抢先发布了支持DirectX 9.0c的GeForce 6系列显卡,或许是出于对GeForce FX 5系列不幸遭遇的迷信,这次发布的显卡去掉了在“GeForce”后面的“FX”后缀。在GeForce 6系列的显卡中有两个看点,一个是Turbo Cache技术,另一个则是SLI系统。     要解释Turbo Cache技术,不得不说Intel在2003年中发表的915P及925X芯片组。它们都提供了一个重要的接口——PCI-E。常见的PCI-E接口有 ×1/×4/×8/×16四种规格,如果是双向工作,带宽分别为500MB/s、2GB/s、4GB/s和8GB/s 。而显卡使用PCI-E×16或PCI-E ×8插槽。这比AGP 8×那可怜的2.1GB/s带宽要高多了。这么高的带宽,当然要好好利用,于是Turbo Cache技术就诞生了,在2D情况下,显卡仅使用本地显存,而在运行3D程序时,通过Turbo Cache技术,显卡可以通过PCI-E总线调用部分系统内存作为显存使用。这让GeForce 6200 TC仅仅使用了64 MB / 64 bit显存,就能达到256MB/128 bit显存所能达到的效果。     至于SLI系统,或许有人听到这个名字的时候会突然被震住,因为它是“父亲级”游戏玩家记忆中的东西,上次接触过SLI的游戏玩家,现在大多数已为人父了。没错,它的原型就是埋藏在众多资深游戏发烧友记忆深处的Voodoo2显卡的SLI!尽管时空变迁,人事已非,这一转身,竟是整整10年时间。随着3DFX一起被埋葬的SLI,在NVIDIA收购3DFX后终于在GeForce 6身上重生了! 后DirectX 9.0c时代 关键词: 韬光养晦、重拳出击
[1] [2]  

    在支持DirectX 9.0c的高性能显卡GeForce 6800 Ultra发布后,竟然整整一年时间内,NVIDIA都没有更强悍的显卡出炉,或许是因为GeForce 6800 Ultra组成的SLI太强了,NVIDIA还可以坐吃老本,此时整个3D图形领域显得异常沉闷。     虽然表面上没有动作,但NVIDIA的研发却从来没停止过。终于,在2005年第二季度发布了GeForce 7800 GTX(开发代号G70)。首先从硬件规格来看,GeForce 7800 GTX图形处理器在架构上的改变是明显而且有效的,同GeForce 6800 Ultra的0.13微米制造工艺相比,采用了更先进的0.11微米工艺制造,渲染管线也从16条增加到24条,核心/显存频率为430MHz/600MHz。硬件规格的提高为强大的处理能力提供了有力的保障,从测试成绩中,我们可以看出GeForce 7800 GTX在高分辨率、特效全开的情况下,比GeForce 6800 Ultra在3DMark 05中的得分领先了55%以上。无愧于当时“性能之王”的称号。     2006年6月6日,在中国人看来是个很吉祥的日子里,NVIDIA发布了一款怪物级的显卡——GeForce 7950GX2。如果说NVIDIA的SLI系统是一种人多力量大的表现,那GeForce 7950GX2则完全是一种怪物的感觉。该显卡采用双GPU、双PCB板设计,看起来更像是类似于双头蛇之类的怪物。该显卡的默认核心频率为500MHz,每个GPU拥有24条像素渲染管线和8个顶点着色引擎。每个显示核心都配备了500MB的GDDR3显存,总显存容量为1GB。显存频率为1200MHz。最“恐怖”的是,该显卡也能通过SLI连接线,将两块GeForce 7950GX2显卡连接起来。此时系统中将拥有4个显示核心、2GB的显存。GeForce 7950GX2发布的意义并不仅仅是NVIDIA在性能上的一种突破,更多的是一种在多核心显卡上的一种尝试和探索。     明天NVIDIA又会推出什么样的显卡?硬件,应该支持DirectX 10;特效,应该更加趋于真实;速度,应该更加流畅;发热量,应该减减了……让我们拭目以待吧。

(出处:http://www.sheup.com)


 [1] [2] 

标签: