GeForce简介
NVIDIA GeForce 提供先进的显卡、游戏解决方案和游戏技术。通过 GeForce Experience 下载驱动程序、自动优化游戏*设置。
本文所涉及到的规格与数据,均采用NVIDIA公版显卡。
DX7.0 OpenGL PCI/AGP4X(DDR版本只有AGP接口)
GeForce 256是*款256bit显示核心的可编程GPU,支持T&L立方环境映射、Dot3凹凸映射和HDTV动态补偿和硬件alpha混合。在显示接口方面,GeForce 256率先开始支持AGP4×快写模式。
DX7.0 OpenGL AGP4X
GeFoece 2有明显高低端之分,MX系列为低端,其余系列为中高端。
加入数字振动控制(DVC),TwinView(双头显示)功能。在当时,FSAA技术已经开始兴起,FSAA可以大量的改善画质,去除难看的锯齿,甚至是旧游戏也可以让它变得更光滑好看,此前只有3dfx的双VSA-100芯片Voodoo5支持。GeForce2 GTS也可以用硬件FSAA,它的方式是用SuperSampling,但是SuperSampling FSAA只能使用在低分辨率,很显然的,nVIDIA的SuperSampling方式比3dfx的MultiSampling的效率还要差,另外nVIDIA驱动程序没有DirectX的FSAA功能,这使得拥有FSAA技术的GeForce2 GTS并没有得到很好的改善画质的效果。
支持S3TC、FSAA、Pixels Shaders和硬件动态MPEG-2动态补偿功能。
DX8.0 OpenGL AGP4X
光速存储结构(Lightspeed Memory Architecture),在高分辨率下,即使当时最快的DRAM模组也无法满足新一代的图形芯片这个事实已经不再是什么秘密。就因为这个原因ATI开发了HyperZ技术,它可以解决许多在存取数据和消除Z缓冲中浪费掉的带宽。它属于一种无损的压缩算法(即减小了数据量,但不降低画面精度)。nVIDIA的LMA结构的出发点和ATI十分类似,他们希望通过优化显存带宽的方法来达到较大限度利用板载230MHz DDR显存的目的。其中首要的创新是多路交叉显存控制器(Crossbar Memory Controller)。我们知道128位的DDR显存在一个时钟周期内可以同时传递2次数据,换句话来讲就是一次可以传递256位的数据包。但问题就出在这里:如果一个数据包的容量只有64位,也会占用一个数据传送周期,也就是在硬件端发送数据时仍然被当做256位来看待的,所以这里带宽的利用率实际上就只有25%非常低下。GeForce3改变了这个情况。它提供了并行工作的4个显存控制器,这些装置能够在与GPU通讯的同时互相联系,具体一点就是4个控制器分别掌管64位数据带宽,在遇到大数据包时(>64位)可以整合在一起工作,遇到小的数据包时各自为战。这样的处理方式极大地提高了显存带宽的利用率。
在LMA架构中的第二项技术是无损的Z轴数据压缩算法,这个改进思想来源于ATI RADEON。由于芯片处理每个像素的时候要考虑到它们在三维场景中的深度坐标,所以Z缓冲是显存和芯片之间数据传递的关键部分,带宽占用的分量最重。nVIDIA已经开发了一个可以将Z轴数据压缩四倍的算法,在不会带来任何精度丧失的同时,也节省了许多不必要的带宽浪费。nVIDIA称之为光速显存架构亦可以称为VS(Visibility Subsystem,可见子系统)。它和隐藏表面去除(Hidden Surface Removal)有着密切的关系,这是一种在PowerVR和Mosaic芯片设计中得到大量论述的关键技术。如果没有这种技术,一块图形芯片必须处理CPU传送来的每个3D对象,甚至那些在最终图像中被临时遮蔽的对象。采用了绘制隐藏对象或表面的过程称之为超量绘制(OverDraw),它意味着图形芯片在一个典型3D游戏中要渲染2到4倍于所需的像素。这次nVIDIA已经加入了一个被称之为Z轴吸收选择(Z-Occlusion Culling)的技术来达到和隐藏面去除技术类似的效果。GeForce3通过在绘制一个帧的早期检查深度值来取消隐藏的像素,也就是在应用转换和光源效果之后。nVIDIA声称它预防超量绘制的方法在实际处理过程中可以获得50%-100%的性能提升。
其次是nVIDIA的nfinite FX引擎,nVIDIA在标准的T&L引擎旁边增加了一个高度可编程的动画和效果引擎,这就是“nfinite FX”引擎。它是GeForce3中最精密、复杂的新单元,与纯粹的T&L引擎相比它的应用更为广泛。虽然可编程性听起来更像是针对开发商而言,玩家或许不会对此关注,不过可以肯定一点的是没有人喜欢一再看到同样的3D特效!根据这样设计,游戏设计师们可以创造出独特和充满变化的效果。
nfiniteFX引擎分为2个部分:一个专用于处理像素的,另一个则专门用来处理顶点或几何效果。我们记得在GeForce2 GTS发布的时候,它的像素着色器(Pixel Shaders)的技术已经非常眩目。这次NVIDIA决定让它增值,新的技术叫做顶点着色器(Vertex Shaders)。新的顶点流水线可以优先传送实时可见的视觉效果。GeForce3中的可编程Vertex Shaders技术允许开发者有更多的选择。过去一个顶点数据包含了位置坐标(X,Y,Z)、颜色、光影和纹理结构数据,现又多了一个Vertex Shaders数据。它可以在不需要CPU经常发送指令的前提下改变3D对象。顶点Shader效果尤其生动,因为它们可以控制一个物体的形状、动画或光线。很方便地操控一个顶点数据浮现在别的表面,表现不同的透明度以及不同的色彩等。当然了并不是每个顶点都需要进入到Vertex Shaders中进行处理,只有当有特殊要求的时候,这才是必要的。
就像你从附图中看到的那样,顶点投影和硬件T&L加速单元并行执行。如果顶点阴影器正在运行则T&L单元就空闲下来。这并不是一个问题,因为其实阴影器本身也包含有硬件加速顶点转换的功能,可以说Vertex Shader是性能更强大,功能更多的硬加速转换和光影引擎。之所以让两者同时存在则是为了兼容的原因。Vertex Shader是可编程的,这里有大量的效果可以产生,*限制是开发人员的编程技能。NVIDIA已经提供了一个手册介绍了整个效果库,其中包括了近百种效果。下面我们简单地来看看Vertex Shader包含的效果。
还有就是顶点效果,角色动画最早被使用在Vertex Shaders中。如果你记得,ATI已经在Radeon引入了一些硬件编码的特点,例如游戏角色的关节皮肤或关键帧插补技术。GeForce3可以进行更加精密的皮肤处理,它允许利用内部骨架建造角色,而美工(或者游戏的物理引擎)来实现骨架的运动,同时仍然以真实方式保持关节附近的纹理。
MX:DX7.0 OpenGL1.3 AGP4X/8X/AGP桥接PCI-E(PCX4300)
TI:DX8.0 OpenGL AGP4X/8X
GeFoece 4有明显高低端之分,MX系列为低端,TI系列为中高端。
GeForce4 MX(研发代号为NV17)。GeForce4 MX并不是源自GeForce4 Ti的核心,而是源自于GeForce2 MX所采用的NV11图形核心。与GeForce2 MX相比,GeForce4 MX最主要的改良是拥有较高的频率与两段交错式内存控制器的LMA Ⅱ(GeForce3与GeForce4 Ti有四段),可以增加可利用的内存带宽。
GeForce4 Ti仍采用4条渲染流水线,每条流水线包含2个TMU(材质贴图单元),但GeForce4 Ti是依靠其他方面的改进和增强来实现提高性能的目的。在T&L单元方面拥有nfiniteFX Ⅱ引擎,它是从GeForce3时代开创的nFiniteFX引擎改进而来的。在GeForce3中只有一个顶点着色引擎,而GeForce4 Ti配备了两个。两个平行的顶点着色引擎是可以在同一时间处理更多的顶点。两个单位都是多线程与多线程处理,并在芯片上执行的,因此可以通过应用程序或API来获得性能上的好处。指令的分配是由NV25所处理的,但是那必须去确认每个顶点着色引擎处理的是不同的顶点,这样才会使平行处理变得较实用。顶点着色引擎是从GeForce3内的原始版本所优化而来的,因此降低了指令的延迟。
此外,GeForce4 Ti也同时引入了LightSpeed Memory Architecture Ⅱ(LMA Ⅱ)光速显存构架Ⅱ技术,通过优化渲染过程及数据压缩等技术,大大节省了显存带宽,提升了显卡的性能表现。在全屏反锯齿方面,GeForce4 Ti采用了新的Accuview AA技术。
nVIDIA使用「新的取样位置」来改善AA的品质,因为可以减少错误堆积,特别是使用Quincunx AA的情况下。新的过滤技术会在每次(多重)取样时被一起执行来产生反锯齿的帧,并且省下了完整的帧写入,这样可以大幅改善AA的性能。基本上,Accuview应该可使AA看起来更好看,并且跑的更顺。
GeForce4可以把nVIDIA特有的「Quincunx」-AA执行像一般2x-AA一样快。除此之外,nVIDIA增加了额外的模式,叫做「4xS」。这个模式应该看起来会比4x AA模式好很多,因为增加了50%的子像素覆盖范围(不过这个模式只支持Direct3D游戏,不支持OpenGL)。通过采用新的取样方式并优化执行过程,GeForce4 Ti在这方面的速度是GeForce3的2倍,它保证了高分辨率下的运行速度,取得了性能和画面品质之间的平衡。
GeForce 5(官方统称为GeForce FX系列)是由nVIDIA研发设计的第五代GeForce显示核心产品,分为
GeForce FX和GeForce PCX 两大系列。(本自然段来自维基百科)
GeForce FX发布于2002年11月18日。(核心代号NV3X)采用新一代的DX9.0技术,可提供比7.0和8.0更逼真的游戏特效。GeForce5200作为NVIDIA*款支持DX9.0的廉价显示卡,表现的效果并不理想,但凭借着DX9.0的名气,市场购买量非常大,但性能却还不如GeForce4 Ti系列,系列的中端产品GeForceFX 5600/5700,也并不成功。就算是GeForceFX 5600U在DX9.0方面,也不尽人意。其高端的GeForce5800,5900,5950,其温度高,功耗大,温度和功耗并对不起它本身的性能。与对手ATI的Radeon 9600,9700,9800的性能相差甚远,NVIDIA在GeForce5系列彻底输给对手ATI。
DX9.0+ OpenGL AGP8X 桥接PCI-E(PCX系列支持HCT、CineFX1.0、CineFX2.0、UltraShadow等技术。)
GeForce PCX(核心代号NV3xPCX)在2004年2月17日的IDF2004上正式发布。是业界*套全系列支持PCI-E接口的GPU。但GeForce PCX只是GeForce FX系列显示卡配合HSI桥接芯片而支持PCI-E,瓶颈依然存在,所以GeForce PCX只是理论上支持PCI-E,完全不能发挥PCI-E应有效果。GeForce PCX名副其实是过渡产品。(本自然段来自维基百科)
DX9.0C OpenGL1.5 AGP8X/PCI-E。
首款支持DX9C与SM3.0的产品。
NV40将NVIDIA特有的CineFX技术提升到了3.0版本,支持Pixel Shader 3.0Vertex Shader 3.0、实时位移映射和Tone映射,最多支持16纹理/通道,支持16bit和32bit FP格式、sRGB纹理,支持DirectX和S3TC压缩、支持32bpp、64bpp和128bpp渲染以及更多的新视觉效果。
GeForce 6加入了HDR?High-Precision Dynamic-Range,高精确度动态范围 OpenEXR技术、支持FP滤波、纹理、混合。改
GeForce是电脑网络数码硬件行业领先的网站,GeForce于2020年7月被世界网址收录于目录下,网站创办者是:GeForce,GeForce网站网址是:http://www.geforce.cn,世界网址综合分析GeForce网站的价值和可信度、百度搜索排名、Alexa世界排名、百度权重等基础信息,为您能准确评估GeForce网站价值做参考!
官方信息
-
-
- 微博
-
- YouTube
-
- 微博
-