我是很相信Intel跟AMD會持續用這種橫向發展來衝效能啦,但是80個Core也未免太誇張了吧?工作管理員一打開來會不會每個執行緒都在不同Core?
雖然說顯示卡已經老早就是用平行的方式在擴大規模了,但是畢竟CPU處理的很多資料不能跟顯示卡一樣,把畫面切碎分開算。我相信平行運算對跑3D畫面、壓影片、算氣象、跑SETI之類的時候,每個Core可以各自運算一部份,然後把自己的電腦當Cluster用。但是CPU常常會有資料前後依存的情況,萬一真的這樣硬搞,很可能跑一個很大的執行緒的時候,要另外70個Core來幫忙做分支預測?
所以我認為他們在個人電腦用的CPU,應該不可能像工作站一樣,靠拼Core數量來增加效能,而會乖乖的改進架構吧?
不過話說我還蠻好奇的,SETI每天新增的資料量應該是固定的,當CPU越來越多、越來越快的情況下,不會有算完的一天嗎?
同時還有這樣的新聞…256M的快取?聽起來還真不是普通的大規模…
一片12″晶圓直接封裝成一顆CPU的話,那到時候的CPU風扇搞不好可以向下移植來給桌上型電扇用,搞不好會又涼又安靜喔?
當電腦邁向平行處理來分攤工作時…
人類是不是也該往電波意識統合體的方向努力啊?
早就是這樣了不是嗎…
不過綠綠的介面熊熊不怎麼習慣
喔對了,SETI的話,我記得他們會重新丟一樣的PACKET給不同的人算
好像是要確定沒算錯的樣子…?
>好像是要確定沒算錯的樣子…?
的確是有這樣的機制沒錯啦,但是也不可能因為CPU時間用不完,所以同一個檔案就重複丟給二十個人各算一次吧?
我認為會XD