顯示卡 NVIDIA GTX 870 測試分數、規格曝光

DZY_ezio

初級會員
已加入
8/10/14
訊息
11
互動分數
0
點數
0
出後一個月再來個CUDA到2500↑
改名叫870TI,繼續賣消費者XDDDDDDDDDDD
 
最後編輯:

tint

初級會員
已加入
1/3/11
訊息
43
互動分數
0
點數
6
最後編輯:

august88

高級會員
已加入
9/22/03
訊息
858
互動分數
1
點數
18
越來越厲害了阿
 

mayochen

夏天超頻三溫暖
已加入
2/2/11
訊息
1,248
互動分數
13
點數
38
如果CUDA真的是1664個,那感覺就差了。


但是你要想想這樣的數量CUDA可以打2304cuda,當然這樣核心數耗電量鐵定降低,更何況880又不是最頂級款= =

要想想780ti呀還有新一代泰坦= ="
 

84156777

高級會員
已加入
4/7/13
訊息
513
互動分數
4
點數
18
年齡
46
重點價格,,,,
別效能接近780-780ti
價格也是780-780ti
那就,,,,,,,,,,看看就好
 

華麗幻境

初級會員
已加入
12/26/13
訊息
6
互動分數
0
點數
1
坐等870Ti
 

CHKe

初級會員
已加入
12/14/07
訊息
38
互動分數
0
點數
6
年齡
38
希望能夠像670,短小精幹!
 

bbb1206

一般般會員
已加入
6/1/10
訊息
175
互動分數
0
點數
0
CUDA[編輯]
CUDA(Compute Unified Device Architecture,統一計算架構[1])是由NVIDIA所推出的一種整合技術,是該公司對於GPGPU的正式名稱。透過這個技術,使用者可利用NVIDIA的GeForce 8以後的GPU和較新的Quadro GPU進行計算。亦是首次可以利用GPU作為C-編譯器的開發環境。NVIDIA行銷的時候[2],往往將編譯器與架構混合推廣,造成混亂。實際上,CUDA可以相容OpenCL或者自家的C-編譯器。無論是CUDA C-語言或是OpenCL,指令最終都會被驅動程式轉換成PTX代碼,交由顯示核心計算。[3]

目錄 [隱藏]
1 概要
2 優點:
3 限制:
4 應用
5 支援的產品
6 Example
7 參考文獻
8 相關條目
9 外部連結
概要[編輯]


Example of CUDA processing flow
1. 複製記憶體至 GPU
2. CPU 指令驅動 GPU
3. GPU 每一核心並列處理
4. GPU 將結果傳回主記憶體
以GeForce 8800 GTX為例,其核心擁有128個內處理器。利用CUDA技術,就可以將那些內處理器串通起來,成為執行緒處理器去解決資料密集的計算。而各個內處理器能夠交換、同步和共享資料。利用NVIDIA的C-編譯器,通過驅動程式,就能利用這些功能。亦能成為流處理器,讓應用程式利用進行運算。

GeForce 8800 GTX顯示卡的運算能力可達到520GFlops,如果建設SLI系統,就可以達到1TFlops。[4]


但程式設計師在利用CUDA技術時,須分開三種不同的記憶體,要面對繁複的執行緒層次,編譯器亦無法自動完成多數任務,以上問題就提高了開發難度。而將來的G100會採用第二代的CUDA技術,提高效率,降低開發難度。

目前,已有軟體廠商利用CUDA技術,研發了一個Adobe Premiere Pro的外掛模組。通過外掛模組,使用者就可以利用顯示核心去加速H.264/MPEG-4 AVC的編碼速度。速度是單純利用CPU作軟體加速的7倍左右。

在NVIDIA收購AGEIA後,NVIDIA取得相關的物理加速技術,即是PhysX物理引擎。配合CUDA技術,顯示卡可以模擬成一顆PhysX物理加速晶片[5]。目前,全系列的GeForce 8顯示核心都支援CUDA。而NVIDIA亦不會再推出任何的物理加速卡,顯示卡將會取代相關產品。

為了將CUDA推向民用,NVIDIA會舉行一系列的編程比賽,要求參賽者開發程式,充分利用CUDA的計算潛能。但是,要將GPGPU普及化,還要看微軟能否在Windows作業系統中,提供相關的編程介面。[6]

2008年8月,NVIDIA推出CUDA 2.0[7]。2010年3月22日,NVIDIA推出CUDA 3.0,僅支援Fermi及之後的架構[8]。

//

CUDA是一種由NVIDIA提出的並由其製造的圖形處理單元(GPUs)實現的一種平行計算平臺及程式設計模型。CUDA給程式開發人員提供了直接存取CUDA GPUs中的虛擬指令集和平行計算元件的記憶體。

使用CUDA技術,GPUs可以用來進行通用處理(不僅僅是圖形);這種方法被稱為GPGPU。與CPUs不同的是,GPUs有著側重以較慢速度執行大量併發執行緒的並行流架構,而非快速執行單一執行緒。

軟體發展者可以通過CUDA加速庫,編譯器指令(如OpenACC)以及符合工業標準的程式設計語言(如C,C++和Fortran)擴展對CUDA平臺進行操作。C/C++程式師可以使用「CUDA C/C++」,使用「NVCC」——NVIDIA基於LLVM的C/C++編譯器進行編譯;Fortran程式師可以使用「CUDA Fortran」,使用PGI公司的PGI CUDA Fortran編譯器進行編譯。 除了庫、編譯器指令、CUDA C/C++和CUDA Fortran,CUDA平臺還支援其它計算介面,如Khronos Group的OpenCL,Microsoft的DirectCompute,以及C++AMP。其協力廠商封裝也可用於Python,Perl,Fortran,Java,Ruby,Lua,Haskell,MATLAB,IDL及Mathematica的原生支援。

在電腦遊戲行業中,GPUs不僅用於進行圖形渲染,而且用於遊戲物理運算(物理效果如碎片、煙、火、流體),比如PhysX和Bullet。在計算生物學與密碼學等領域的非圖形應用上,CUDA的加速效果達到了可以用數量級來表示的程度。

CUDA同時提供低級API與高級API。最初的CUDA軟體發展包(SDK)於2007年2月15日公佈,支援Microsoft Windows和Linux。而後在第二版中加入了對Mac OS X的支援,取代了2008年2月14日發佈的測試版。所有G8x系列及以後的NVIDIA GPUs皆支援CUDA技術,包括GeForce,Quadro和Tesla系列。CUDA與大多數標準作業系統相容。Nvidia聲明:根據二進位相容性,基於G8x系列開發的程式無需修改即可在未來所有的Nvidia顯示卡上運行。[9]

優點:[編輯]
在GPUs(GPGPU)上使用圖形APIs進行傳統通用計算,CUDA技術有下列幾個優點:

分散讀取——代碼可以從記憶體的任意位址讀取
統一虛擬記憶體(CUDA 6)
共用記憶體——CUDA公開一個快速的共用存儲區域(每個處理器48K),使之在多個進程之間共用。其作為一個使用者管理的快取記憶體,比使用紋理尋找可以得到更大的有效頻寬。
與GPU之間更快的下載與回讀
全面支援整型與位操作,包括整型紋理尋找[10]
限制:[編輯]
CUDA不支援完整的C語言標準。它在C++編譯器上運行主機代碼時,會使一些在C中合法(但在C++中不合法)的代碼無法編譯。
不支援紋理渲染(CUDA 3.2及以後版本通過在CUDA陣列中引入「表面寫操作」——底層的不透明資料結構——來進行處理)
受系統主線的頻寬和延遲的影響,主機與設備記憶體之間資料複製可能會導致效能下降(通過過GPU的DMA引擎處理,非同步記憶體傳輸可在一定範圍內緩解此現象)
當執行緒總數為數千時,執行緒應按至少32個一組來運行才能獲得最佳效果。如果每組中的32個進程使用相同的執行路徑,則程式分支不會顯著影響效果;在處理本質上不同的任務時,SIMD執行模型將成為一個瓶頸(如在光線追蹤演算法中遍歷一個空間分割的資料結構)
與OpenCL不同,只有Nvidia的GPUs支援CUDA技術
由於編譯器需要使用優化技術來利用有限的資源,即使合法的C/C++有時候也會被標記並中止編譯
CUDA(計算能力1.x)使用一個不包含遞迴、函式指標的C語言子集,外加一些簡單的擴展。而單個進程必須運行在多個不相交的記憶體空間上,這與其它C語言運行環境不同。
CUDA(計算能力2.x)允許C++類功能的子集,如成員函式可以不是虛擬的(這個限制將在以後的某個版本中解除安裝)[參見《CUDA C程式設計指南3.1》-附錄D.6]
雙精度浮點(CUDA計算能力1.3及以上)與IEEE754標準有所差異:倒數、除法、平方根僅支援舍入到最近的偶數。單精確度中不支援反常值(denormal)及sNaN(signaling NaN);只支援兩種IEEE舍入模式(舍位與舍入到最近的偶數),這些在每條指令的基礎上指定,而非控制字碼;除法/平方根的精度比單精確度略低。[11]
應用[編輯]
利用CUDA技術,配合適當的軟體(例如MediaCoder[12]、Freemake Video Converter),就可以利用顯示核心進行高清視訊編碼加速。視訊解碼方面,同樣可以利用CUDA技術實現。此前,NVIDIA的顯示核心本身已整合PureVideo單元。可是,實現相關加速功能的一個微軟API-DXVA,偶爾會有加速失效問題。所以利用CoreAVC配合CUDA,變相在顯示核心上實現軟體解碼,解決相容性問題[13]。另外,配合適當的引擎,顯示核心就可以計算光線跟蹤。NVIDIA就放出了自家的Optix即時光線跟蹤引擎,透過CUDA技術利用GPU計算光線跟蹤。[14]
 

hgman

一般般會員
已加入
1/16/13
訊息
187
互動分數
0
點數
16
nvidia的設計能力與amd開始拉開了....
maxwell的能耗比太強大了
 
▌延伸閱讀