780Ti以后到1080Ti以前,GPU Boost虽然已经存在了几年,但是显卡超载的胃口还没那么离谱,电源自己在额定功率以上留了150-200W余量,加上用户选型时留个100W,CPU多个核心不能同时满载再省个几十瓦,总共300多瓦的余量能把显卡多要的部分从容地包起来。那个时候选电源,瓦数够用就好,多余的瓦数为了静音或者效率服务,选低瓦数高效率还是高瓦数普通金牌就看个人喜好。
然后好日子就过去了,GPU boost又往前前进了一步。以Vega为分界线,显卡胃口越来越大,电源兜里那点仨瓜俩枣已经被掏空,再要就黑给你看。GTX1080Ti到RTX2080Ti、3080Ti,TDP温和增长,但是公版GPU供电的相数却发生了大跃进,这既不是因为核心电压大踏步地降低,也不是因为显卡TDP大踏步地升高,而是因为,为了从有限的散热能力里压榨出尽可能多的性能,显卡极其频繁地使用玩命干/玩命歇交替的工作模式,EDC(供电需求)迅速地甩开了TDC/TDP(散热需求)。
就像手机领域高通3秒真男人成为常识一样,经过短短几年发展,GPU乃至CPU领域供电需求远高于散热需求也已经成为新的常识。
ATX12V 3.0规范开篇即承认了显卡普遍突破PCIE CEM规范限制的既成事实,并表示以后的显卡也会这么做,用较低的散热压力压榨出较高的性能。当电源和显卡双双遵守3.0规范以后,市场又会回到给300W显卡分配300W功率预算的旧状况,300W显卡在瞬态下多拿的那300-600W,由电源根据3.0规范的性能要求予以保证。
旧帖归档Chiphell - 分享与交流用户体验 ,Chiphell - 分享与交流用户体验
www.chiphell.com