我覺得這問題其實很簡單啦
打個比方說...以最好的CPU跟最好的顯卡來用100分算
依序把所有分數量化..成百分
一款遊戲如果需要CPU吃60分..顯卡吃60分
那只要你CPU跟顯卡其中一個不合格
就會開始掉FPS
但是如果你遇到一款CPU 30分 顯卡要90
當然你會覺得顯卡換越好..它就跑越高
想反就是這樣
然而目前很多單機遊戲
都是吃畫面因素比較大
所以只要CPU有我講的及格(也就是大大所測試2G左右的時脈)
其餘大部分都可由顯卡吃下
但是相對的如果今天一款遊戲需要CPU80分顯卡40分
那就會變成你會覺得CPU餵不飽顯卡..所以一直加上去才會一直提升
所以當加到80自然就順了..
這樣就會產生CPU餵顯卡的錯覺