全體處理器產品線逐步邁向多核心架構
CMP與SMT的結合
高階IA-64處理器 率先走向多核心設計
處理器一直都是英特爾事業的核心,佔了其大多數的營收,也是其巨大業界影響力的主要來源,所有的周邊產品發展時程,幾乎都是為了配合其處理器而考量。所以,要了解英特爾未來的技術發展趨勢,就必須先了解其處理器的發展時程以及設計目標。
有別於英特爾近兩年來全力推展Hyper-Threading等同步多執行緒(SMT:Symmetric Multi-Threading)技術,本屆IDF正式宣布處理器產品線未來將結合現有的SMT技術,逐步往多核心架構(CMP:Chip-level Multi-Processing)發展,堪稱產品設計路線上的一大突破。也充分表現出,英特爾為了依循摩爾定律,極力發展充分發揮電晶體數量技術的思維。換言之,多核心架構的發展,僅為摩爾定律自然發展的結果。
事實上,SMT架構導入於處理器設計的初衷,有很大的理由,在於新型處理器導入大量的實作加速機制、如非循序執行(Out-Of-Order)、暫存器更名(Register Renaming),以及大型化的複數執行單元等,但是這些執行運算資源並沒有得到充分的利用,尤其對為了提升時脈而日益加深的指令執行管線而言,管線越深,執行單元的利用率也就越低。簡而言之,這些既有的硬體資源,大幅降低了SMT的實作成本,兩者互為表裡,這就是現今SMT架構的重點。
不過,SMT架構依然有其效益上的極限,除了實體處理器核心的數量並沒有增加外,如果為了增加SMT的「寬度」(邏輯處理器的數目),且希望增加同步執行指令的數目及效能,而倒因為果地提升實作加速機制,就會顯得不划算且缺乏經濟效益。更何況,IBM近期發表的Power5以及Sun發展中的Niagara處理器,皆為整合兩者的設計。所以,走向CMP和SMT的結合,是一個不得不為的技術趨勢,對身為半導體產業霸主的英特爾也不例外。
英特爾在今年IEEE Hot Chips論壇,已經透露了新款Itanium 2、代號Madison 9M的相關細節,除了第三階快取記憶體從6MB增加到9MB,其餘皆與130nm的Itanium 2相同,亦相容既有的針腳插座及晶片組,預計明年上市,時脈從1.5GHz開始。
發展中的新款IA-64處理器Montecino,將會是英特爾史上第一顆雙核心架構的產品,使用90nm製程生產,預定2005年上市。另外,由昔日Digital發展Alpha的設計團隊所設計的Tanglewood,將是4核心起步、最終可能發展至16核心的IA-64處理器,使用未來的65nm製程生產,預計2006年上市。但是,Tanglewood並非僅為Montecino的多核心版本,將會有諸多架構上的改進,英特爾並未透露其細節。
極為有趣的是,同樣為英特爾競爭對手的AMD,現今亦由昔日Alpha設計團隊成員擔當大任。關於SMT及CMP的技術,Alpha亦為其開端。
另外,雖然已經表明肯定的態度,但至今英特爾尚未公布IA-64導入SMT技術,這也是一個值得觀察的重點。
不過,雖然英特爾已經規畫了如此巨大的IA-64產品布局,也將會有眾多高階IA-64處理器出現在市場上,但是,IA-64處理器缺乏軟體資源以及執行x86程式碼的效率不彰,依然是IA-64普及化的最大障礙,這也將是英特爾所必須克服的問題。此外,長期而言,如果英特爾的長期策略是希望將IA-64取代老舊的x86指令集,IA-64就不可能一直停留在高階運算市場,遲早會走到桌上型的個人應用。近期開始發售的Itanium 2低價版本Deerfield,鎖定刀鋒型及低階伺服器的應用,將是IA-64低價普及化的一個試金石。低階伺服器處理器 走向雙核心
桌上型處理器 最後也將走向雙核心
行動式處理器 仍以省電為首要
Xeon MP產品線,根據英特爾公布的時程表,預定今年內會發表Northwood核心、130nm製程、具有2MB第三階快取記憶體的Gallatin,時脈從2.8GHz開始,明年年初另外發表4MB第三階快取記憶體、3GHz的新版本。另外,明年下半年將會發表Prescott核心、90nm製程的Potomac,時脈及第三階快取容量尚未公布。在未來,英特爾將發表Tejas-C(CederMill)核心、65nm製程、雙核心的Tulsa,這也將是英特爾第一顆雙核心架構的x86處理器。
Xeon DP產品線,繼近期發表的新款Xeon 3.2GHz,明年將會出現Prescott核心、90nm製程、800MHz前置匯流排、同樣具備1MB第三階快取記憶體的Nocona。在未來,也將會有Tejas核心、90nm製程、800MHz前置匯流排的Jayhawk處理器。
從Pentium Pro開始大舉入侵低階伺服器市場開始,到了今天,這塊市場幾乎都是Xeon系列的天下。不過,目前AMD也用Opteron進入這塊市場,而且標榜著64位元的訴求。英特爾如何應對,將是市場上關注的焦點。
本屆IDF最大的意外,莫過於新款Pentium 4 Extreme Edition的發表,完全出乎眾人的意料。基本上,Pentium 4 Extreme Edition和現有的Northwood類似,差異僅為增加2MB的第三階快取記憶體,這讓人不禁聯想到英特爾未來的新款Xeon DP Gallatin,也不禁讓人感受到英特爾壓制AMD Athlon 64聲勢的意圖。
明年英特爾桌上型產品線將以Prescott為重心,比照過去的既定模式,第二季時推出以其為核心的新款Celeron,僅有533MHz的系統前置匯流排及256kB的第二階快取記憶體。另外,明年年底將發表繼Prescott之後的Tejas,除了第一階指令執行追蹤快取記憶體(Trace Cache)增加到16k微指令、資料快取增加至24kB外,新增包含8個新指令的TNI(Tejas New Instructions)指令集,使用LGA 775封裝,也將會支援1066MHz的前置匯流排。接下來,發表65nm製程的Tejas-C(CederMill),最後在2006年發表有別於現今NetBurst、全新架構的Nehalem,預計將會是英特爾首顆雙核心架構的桌上型處理器。
英特爾從Pentium M開始,有別於過去以桌上型處理器為基礎發展發展低電壓衍生版本的方式,獨立研發行動式電腦專用的處理器。所以,桌上型及行動式的產品線從此分道揚鑣。英特爾也可能意識到,隨著水漲船高的處理器耗電量及發熱量,過去的做法已不再適用。
本屆IDF公布了不少新版Pentium M Dothan的細節資料。相較於Prescott從Northwood的諸多改進,Dothan就顯得簡單多了,和前一版Pentium M Banias相比,最主要的改進就是第二階快取記憶體從1MB增加到2MB。此外,在架構上亦有強化,在資料預先擷取機制(Enhanced Data Prefetcher)部分有所改進,以及尚未公布細節的Enhanced Register Data Retrieval。拜90nm製程之所賜,Dothan的電晶體數目雖然多達1億4千萬,但是晶片面積僅有87平方公釐。耗電量亦有所降低,設計耗電功率(TDP,Thermal Design electric Power consumption)從原先Banias的24.5W降至21W,操作電壓從1.48W降至1.3W。根據英特爾的時程,Dothan也將會是明年Sonoma行動運算平臺的處理器。Dothan屆時將以1.7GHz/1.8GHz兩種時脈出貨,亦將推出時脈分別為1.3GHz的低電壓及1.1GHz的超低電壓版本。
在未來,從2005年至2006年,陸續將有90nm的Jonah(過去亦稱Yonah)、65nm 的Merom及Gilo三款行動式處理器,英特爾並未發表任何相關的訊息,僅知為了配合微軟新世代作業系統Longhorn的上市時程,Jonah可能將會支援La Grande安全運算技術。
另外,英特爾何時將在行動式處理器上導入Hyper-Threading以及多核心架構,也是一個值得注意的焦點。基於降低耗電量及熱量的考量,行動式處理器短期內不適合導入這兩種技術,不過,長期而言,這些新技術的導入,僅為時間的問題,畢竟半導體製程技術仍是持續的成長。
未來的半導體製程研發及產能建置
歷年來罕見的巨大布局
歷史的教訓證明,再優秀的處理器設計,沒有良好的製程技術,也是無法有效的商品化。英特爾在過去,一直執半導體製程技術及產能之牛耳,而且在製程研發的布局更是令人驚歎。英特爾宣布,在未來將以兩年為一個製程轉換的周期,2003年導入90nm、2005年65nm、2007年45nm、2009年32nm,以及2011年的22nm。另外,也將在2007年進行三閘極電晶體(Tri-Gate Transistor)的量產驗證工作。如果這些計畫都可以實現,將足以奠定英特爾在半導體產業上的龍頭地位,也將會是推動Ts策略最堅實的後盾。從宣布4Ts之後,英特爾最後依然加上第五個T:Silicon Technology,表示這是一切技術的基礎,就可略見一二。
英特爾於本屆秋季IDF所透露的處理器市場及製程研發布局,規模之大、種類之多、範圍之廣,均為歷年所罕見。在未來,英特爾將會竭力維持其在處理器業界所享有的優勢地位,對於各階層的處理器產品線均,享有壓倒性的主導權。從Prescott檢視處理器的耗電量及散熱問題
雖然英特爾至今並未正式宣布Prescott的上市日期及出貨時程,不過,根據外界的普遍看法,原先預期於今年第四季出貨的Prescott,已經確定將會延宕至明年第一季。據了解,英特爾的90nm製程良率表現並不差,而包含Dothan的90nm製程新產品延期的主因,在於過熱以及耗電量的問題。Prescott 3.6GHz的TDP將高達100W以上,比原先透過今年六月i875P平臺設計相關技術文件對於Prescott的描述、所預估的89W高出甚多,也因此導致主機板必須重新設計供電及散熱系統的事件。另外,英特爾新的ATX及BTX規範,更明白指出未來桌上型處理器的耗電量將會介於110至115W之間。
現在的半導體製程技術雖然以穩定的速度持續進步,電晶體的數目也以摩爾定律所預期的速度持續成長,但是,晶片的運作電壓卻無法無止盡的降低。所以,在維持時脈的成長外,要兼顧適當的耗電量,就會非常的困難。
另外,漏電(Leakage)的問題亦為一個不小的障礙。雖然IBM在很久以前,就導入SOI(Silicon-On-Insulator)技術,以避免這個問題,IBM亦使用此技術生產處理器行之有年,AMD也在K8使用SOI技術。但是,SOI成本相當的高昂,也會降低生產的良率。英特爾曾經為了避免侵犯IBM的專利,嘗試發展Shadow SOI技術,但是因面臨眾多技術問題而放棄。
晶片的面積越來越小,代表著散熱面積的縮減,也意味著更高的熱密度。所以,越小的製程,對於高熱的承受能力也越差。另外一個隱而不現的潛在問題,在於高熱會加速處理器的元件耗損,導致操作壽命減短。英特爾預定在未來將推出的LGA 775針腳插座,相較於Socket 478所新增的龐大針腳數目,並不單純只是為了分散電力供應密度,也是為了散熱的考量。
新型處理器的熱量水漲船高,尤其處理器時脈突破5GHz大關已指日可待,這為散熱系統的設計帶來了不小的挑戰。事實上,依據目前處理器時脈及電晶體的成長速度,在未來,桌上型處理器擁有超過200W的耗電量也並非不可能。屆時,既有的散熱方式將不敷使用,必須尋求其它更有效的途徑,甚至必須從系統設計的整體角度來著手,不能僅以改善單一元件的方式來處理。英特爾的BTX,就是針對此問題所作出的反應。不過,很明顯的,這絕無法徹底克服過熱問題,勢必得尋求更激進的解決方案。
在去年春季IDF,日本日立公司展示了個人電腦用的水冷裝置,在當時並沒有太多人認真看待,但現在不少廠商已經在認真研究將水冷系統應用於伺服器、甚至一般個人電腦的可行性。也許,在未來,最能改變個人電腦「風貌」的,將不會是檯面上琳瑯滿目的嶄新技術,而是因應散熱問題而發展的諸多電腦冷卻系統。處理器與記憶體控制器整合的趨勢
在半導體晶片的世界裡,「靠著越近,速度越快」是一條不變的準則,所以,我們可以看到處理器開始走向逐步的整合化設計。最明顯的例子,莫過於處理器整合多層大型化快取記憶體的趨勢、甚至一步一步的走向多核心架構。另外,透過高速整合化的產品設計,除了可以提升各部件之間的頻寬,亦可降低整體的系統成本。
就某種角度而言,這也堪稱「電晶體自己會找出路」的最佳範例,面對著至今未歇的摩爾定律,處理器廠商勢必尋求有效利用製程技術進步、再以其為基礎發展最佳功能的產品設計方式。簡而言之,檢視半導體技術的發展,從追求傳統的電晶體數目(Count)、產品架構的複雜度(Complexity),直到各種功能的聚集(Convergence),就是一個很好的證明。
近年來,整合記憶體控制器的設計並非僅限於Transmeta Crusoe之類的低階產品,像Sun的UltraSparc IIi/IIIi、Digital的Alpha 21364/21464(EV-7/EV-8)等高階處理器,亦選擇了類似的設計路線。其隱而不現的背後因素,在於新型動態記憶體技術越來越往高延遲(High Latency)的特性發展,所以整合記憶體控制器,將可以有效的降低延遲、提高記憶體存取的效能,這可以從使用Rambus作為主記憶體的處理器,如Sun MAJC、Sony PS2的Emotion Engine,以及Alpha 21364/21464皆採取整合的方式,就可略知一二。
另外一個關鍵因素,在於多處理器環境對於系統匯流排的頻寬有著極高的需求,如果多核心架構直接選擇整合記憶體控制器的方式,將可一勞永逸的徹底解決頻寬問題,也可將原先系統匯流排的針腳吸收至晶片內,簡化系統的設計。這個道理並不難理解,但是卻經常被人所忽略。Sun的MAJC、雙UltraSaprc II核心的Gemini以及近期發表雙UltraSparc III核心的UltraSparc IV,就是很好的範例,AMD在未來也將推出雙核心的K8家族處理器。
不過,整合記憶體控制器的設計,並非沒有缺點。首先,這將導致一旦更動記憶體種類及架構,處理器也必須隨之推陳出新。雖然曾有類似產品的計畫,英特爾一直認為整合記憶體控制器的設計缺乏彈性,所以對於此均抱持否定的態度。其次,雖然各處理器享有獨立記憶體頻寬是一個很明顯的優勢,但是這也提升實作多處理器系統時的困難,尤其傳統的SMP之類的UMA必須轉向NUMA架構,也必須另外實作各處理器之間的點對點連接通道。
但是,下一世代記憶體模組規格的技術發展,卻可能對現有的處理器及記憶體控制器的設計,帶來極大的衝擊。目前記憶體時脈越來越高、容量越來越大,也造成擴充記憶體空間以及維持系統穩定度的困難,所以,昔日僅有伺服器才需要使用的Registered或Buffered模組,日後勢必成為必要的需求。換言之,在記憶體模組上額外增加Hub(HoD,Hub on DIMM)、透過訊號增益器(Repeater)的功能去驅動模組上的記憶體顆粒,已是大勢所趨,英特爾正在推動的FB-DIMM就是類似觀念的產物。
HoD的觀念可以進一步的擴大,將部分記憶體控制器的功能直接整合至Hub之上,然後另外定義一套處理器至記憶體模組之間的超高速點對點通訊協定。如此一來,日後記憶體種類的更換,只要Hub遵從相同的規範,就不需要更改處理器的規格。不過,這種設計的缺點在於大幅增加記憶體模組的成本。無論如何,這個正由業界討論的議題,也已是英特爾和AMD兩家廠商正在角力的焦點。
英特爾由Alpha設計團隊所開發的多核心IA-64處理器Tanglewood,是否會走向類似昔日Alpha EV-7/EV-8和AMD K8的設計路線,處理器整合記憶體控制器、以及透過類似Hyper-Transport的方式實作晶片之間的高速連接通道,是非常值得觀察的重點。不過,不論受到限制的擴充性,處理器廠商為了尋求最佳的功能價格比,持續走向高度整合型的設計,已是大勢所趨,尤其對於僅需單一晶片的系統,更是如此。在未來,我們將會看到更多同時整合多核心架構及記憶體控制器的處理器產品。文⊙劉人豪
熱門新聞
2026-01-16
2026-01-16
2026-01-18
2026-01-16
2026-01-16
2026-01-18
2026-01-16