應用BigData分析 創造半導體製程技術優化條件 智慧應用 影音
DFORUM
世平

應用BigData分析 創造半導體製程技術優化條件

  • DIGITIMES企劃

透過大數據分析工具,可有效改善大量數據的分析工作效率,簡化分析與研究程序。Splunk
透過大數據分析工具,可有效改善大量數據的分析工作效率,簡化分析與研究程序。Splunk

晶圓製程持續優化,目前主流製程已來到20nm線寬水準,進階製程更挑戰10nm或是更小線寬要求,微縮後的電子電路對比現實環境的頭髮僅有萬分之一的寬度,不僅小小的誤差就會導致成本良率問題,艱鉅的製程優化只能藉由大數據技術追蹤改善...

電子產品持續追求輕、薄、效能與電池續航力等要求下、半導體製程持續進行對應優化,半導體晶圓製程自20nm進階縮小至10nm,甚至挑戰更小的半導體線寬設計,持續追求半導體製程優化下,各種自材料面、製造面可能遭遇的技術挑戰也越來越艱難,必須在整個製程中導入更科學化的優化技術,才能讓半導體製程持續挑戰更小的線寬製作需求。

新一代進階製程機台,每秒可產出的生產監控數據相當龐大,沒有使用大數據分析工具會導致分析耗時過久、數據分析追蹤的成果效益不易顯現。ASML

新一代進階製程機台,每秒可產出的生產監控數據相當龐大,沒有使用大數據分析工具會導致分析耗時過久、數據分析追蹤的成果效益不易顯現。ASML

在製程導入數據擷取、分析,進而改善製程與發現隱藏數據下的製程問題,已成為半導體製造廠優化製程的重要工具。Splunk

在製程導入數據擷取、分析,進而改善製程與發現隱藏數據下的製程問題,已成為半導體製造廠優化製程的重要工具。Splunk

半導體廠導入數據分析、優化製程

其實早在2000年,半導體廠早已導入各種數據蒐集與分析技術,進行半導體、晶圓製程的優化工作,透過掌握製程控制的每項參數、變因進行製程的持續優化,挑戰進階製程下的半導體物理極限。

但隨著自動化生產器械在IoT、工業自動化趨勢下,透過大量感測器裝載與實時監控,能在加工機台透過製作過程擷取的生產設備數據已經有數倍、甚至數十倍成長,加上半導體晶圓動輒千道製作程序,加工設備與材料對應產生的數據量已不可同日而語,在優化製程使用傳統的分析工具已無法達成目標,必須導入新一代因應大數據特性優化的分析工具才能達到優化製程目的。

但現實的狀況是,在初期導入數據分析透過生產階段的設備、材料等數據,在以「秒」計的持續彙整下,單一產線累積的區段資料已經相當高,產線為了追一個數據影響跑對應的分析處理一般都要花上一週時間才能獲得結果,在資料採集技術、分析工具限制下,當時產線數據難以轉至大量分析處理數據的層次,頂多只能作問題分析與小幅優化的工作,這種狀況直到2010年做有導入各種大數據、大資料分析技術,在數據化分析生產數據的效益才逐漸產生。

早期數據分析應用有限  優化進階製程效益受限

另一方面,早期數據分析做的不夠多、但仍可優化部分製程的關鍵在於,早期製程可能是對應40nm以上的半導體晶圓製作,可以這麼說,製作的電子電路線寬與現在的20nm甚至是10nm以下製程要求更寬鬆,製程優化難度差異大,早期即便沒有大數據分析優化生產數據,仍可利用有限的分析工具與電子生產技術改善製程良率,但隨著製程技術不斷探索新的極限與發展可能,舊的方法與優化技術已遭遇發展瓶頸,或可以說是根本行不通了。

再來檢視現有的製程現況,如果以12吋晶圓製程、現有生產數據採集技術進行產線數據擷取,以現有感測器部署方案進行生產資料採集,一般每秒可達到超過100萬筆資料以上,早期每個重點生產機台設置的感測器約在500個終端左右,現在一部高階製程使用的設備機台,部署的感測器終端會超過數千組以上,產生的設備數據採集資料量會更為驚人,採用土法煉鋼的方式逐批分析數據已經不可行,甚至會錯失發現關鍵數據資訊的重要機會,導致更嚴重的商業損失。

新製程線寬挑戰物理極限  大數據分析找出優化關鍵

然而,挑戰新的微縮製程,就有如挑戰新的物理極限,每一次製程進展,即會在研發階段遭遇到以前沒有碰過的問題,此時,大數據分析可以在相關現況還不明朗的限制下,先用數據分析找出可能的設備或製程優化的機會點,尤其在先進製程的發展初期,生產數據的採樣與進階分析,即便無法在數據探索階段找到製程解法,但仍可從無間斷的重複採樣、歸納發掘可能的數據Pattern,進而持續縮小查找分析範圍、將製程問題逐步收斂進而發覺到重點優化數據,大數據分析可以說是拿來收斂問題、甚至解決製程問題的重要工具。

從一開始自產製設備採集的生產數據,資料量大在所難免,因為數據不夠細緻、不足量,分析資料跨距就會因為過大反而錯失發現資料線索的關鍵,而在資料量小的早期製程分析需求,或許可以利用統計工具進行數據的優化與結果收斂,但新一代製程與設備數據採集,不僅數據跨距更精密、數據更多,設備一開機所匯出的數據即以誇張速度增長,使用基本的統計工具已經很難進行數據處理。

尤其是矽晶圓製程動輒對材料進行近千道甚至超過千次的加工處理程序,製程又橫跨數個加工站點,甚至製作程序也不是逐道進行,有時還會回流處理、甚至回流至與原先不同的上游工站進行材料處理,這對於資料採集、彙整與後續分析時,還需參照對應的工作站資料節點進行追蹤分析,以便於對生產流程做全面完整的數據分析。

晶圓製程繁複  物料與加工程序均會影響良率

晶圓製作過程繁複是必然現象,針對材料的物理性與化學性加工,所產生的加工結果也會有一定程度的差異,尤其是在不同加工工站、設備機器的處理下,同一個流程可能在不同設備就會產生極大差異,預先將不同設備機台採群集設置再搭配製程產出的數據進行分群、分組深度分析,可將不同群的設備特性進一步以數據分析確認,挖掘製程中可能產生的變異狀態,再將左右製品品質的關鍵控制變因找出來,才能對整體製程能提出具體改善與優化的修正著力點。

除了製作流程的可能產生的生產變異外,其實整個半導體產製變異成因,也可能是材料來源所導致,也就是說如果今天提供Raw Wafer供應商批量提供的材料有略為出現差異,也會導致相同製作程序、卻在同一個生產流程下導致不同的產製結果,所以,製程的大數據分析與追蹤,不僅是要針對生產機台進行大量、密集更細緻的資料採集跨距進行數據積累與定向分析外,在材料端也需要針對進入產線前進行縝密的檢測、分析、記錄,供後續實際進行生產製造時可以有更詳實的參照數據可供分析參考之用。

大數據分析深入機台與製程  創造製程優化條件

現階段半導體廠,在製程更往物理極限推進的同時,也開始意識到半導體生產導入大數據分析工具的重要性,加上新一代製程設備早已將大量感測器、實時數據採集等功能列為標準配備,甚至要在半導體廠導入生產優化大數據分析,光靠設備機台提供的基本款量測數據採集可能還不夠,有可能還需要在設備上線後自行優化、增加資料擷取終端與自行開發大數據採集的數據預處理機制,才能為後繼大數據分析製程提供最佳化的數據採集來源。

至於在大數據分析方向,多數半導體廠都會針對設備機台的控制(Tool Control)、生產機台的健康狀態(Tool Healthy)進行基本數據採集與分析,進階用途為針對生產機台生產力(Tool Productivity)優化、生產品質控管(Quality Control)應用、甚至是加工人員的生產力(People Productivity)優化方面,都可以以大數據分析作為基礎,將大量積累的數據、找出可優化的關鍵項目進行數據分析應用。

從被動分析歷史數據  進階至主動發現機台問題

數據分析多半處理歷史資料,多數只有製程出現狀況才能透過分析追蹤找出問題元兇,數據使用的策略過於被動,現在半導體廠也嘗試要將大數據分析目標提高至預測分析(Predictive Analytics)、機器學習(Machine Learning)等進階應用,透過大數據採集、分析搭配數據分析數據形態提早找出生產設備可能出現的問題成因,再透過分析預警標示可疑機台進行重點設備檢修,透過設備機台的提早修復避免問題發生導致的鉅額損失,甚至更終極的目標為連結機台自我診斷、自我預警甚至是自我修復目標,朝向智慧工廠的目標持續發展。

現有導入大數據分析的業者,大多在系統端選用Hadoop平台,除了搭配HBase資料庫進行彙整設備機台產出的數據外,運用平行處理系統之Hadoop加速數據處理,應用如SPSS、SAS、R語言等數據統計分析工具進行資料分析。

對於設備機台產出的數據而言,若未經前置處理基本上是毫無用處的雜亂訊息,必須先將資料本身進行前置處理、過濾不需要的數據後,再透過數據的特徵萃取過程,使用數據分析工具進行資料採礦處理,才有機會找到影響製程的關鍵因子,另一種數據用法為將大數據初步分析,透過視覺化工具呈現數據,讓數據所代表的現象以圖表呈現,例如用來觀察產能與機台設備流程的關係,讓操作機台設備的工程人員可以看到統計圖表就能掌握設備與製程現況,輔助操作者判斷製程問題與進行相關處理決策。

至於想在大量累積的資料中要找到製程的答案,其實只是緣木求魚,過程不應該僅套用幾個數值分析模型,可能必須套用數百個分析模型、交叉分析比對才有機會將解法收斂,甚至搭配多種篩選條件,進一步將求解可能性提高,大數據再運用平行運算技術改善處理數據耗費的時間、提升了效率自然也能讓大數據的效用更加凸顯。

實務中在導入Hadoop技術,一般可縮短數據處理的分析時間,過去若以一批資料導入一組數據模型進行分析,可能需要耗用3?5天時間才能取得初步成效,在導入新的大數據分析工具、平台,在幾百萬筆基礎資料中僅需要2小時左右就能取得出初步成果。

關鍵字
議題精選-2016 SEMICON