在發展資料驅動轉型過程中,製造業首要須解決生產過程的複雜性、流程破碎、資料孤島等挑戰,以逐步發展自動化、數位化、智慧化製造。AWS台灣暨香港總經理王定愷認為,資料可說是現今數位化時代的新石油,AWS的人工智慧(AI)和機器學習(ML)技術可協助製造業挖掘更多資料價值,從而最佳化生產製程與提高產品品質,贏得市場競爭力。
公有雲平台在企業落實數位轉型計畫中扮演舉足輕重的地位,AWS便正協助製造業者走向資料驅動的智慧製造。王定愷指出,首要任務是打破資料孤島,整合IT/OT應用場域的各種資料。其次是提供企業資料治理的策略建議,進而邁向資料民主化。
此外,AWS擁有十多年晶片設計經驗,致力於突破晶片效能與價格的極限,以支援對運算力有極高要求的AI、ML模型訓練與推理等工作負載。AWS自主研發晶片如AWS Trainium、AWS Inferentia,皆能提供開發人員、資料科學家利用雲端平台訓練模型和執行推論,且大幅降低成本開支。讓企業專注在生產製造營運最佳化,而不是費心於實現目標的基礎架構上。
「現在正是挑戰與機遇並存的新時代,企業應該積極瞄準全球顧客、市場,拓展新機會與新藍海。AWS協助製造業者將資料遷移上雲,節省跨國投資建設的成本,且AWS在全球的基礎設施皆符合當地的安全法規認證,是台灣製造業布局全球的最佳夥伴。」王定愷說。
整合IT/OT破除資料孤島
論及近兩年備受關注的AI應用,王定愷說明,AWS發展AI、ML技術已超過20年,因應生成式AI浪潮,AWS亦積極挖掘把生成式AI導入製造業的潛力,幫助製造業者掌握用戶需求,在供應鏈各階段提高效率與精準度,助力製造業者縮短產品上市速度,同時提升產品品質。
就目前製造業現況來看,連線雲端的邊緣運算裝置正在推動傳統工業環境的轉型。典型的工廠部署大量的感測器(Sensor),用以蒐集營運資料;抑或是聯網裝置內嵌演算法,讓營運場域得以數位化方式監控,以改善工作流程。
隨著工業物聯網(IIoT)裝置在營運環境中快速增加,加上舊式系統逐步汰換,營運資料勢必將呈現指數式增長。問題是當前企業大多欠缺資料策略。工業用資料系統通常獨立運行,不同的資料集分散存放在資料湖、雲端資料庫、IoT裝置或應用系統。此外,工廠場域環境的機器、感測器等裝置都會產生大量非結構化資料。IT與OT資料集須有整合的方法,以便掌握資料存放的位置、建立連結與存取規則,才有能力打破資料孤島,制定以資料為導向的管控方法,讓工作流程最佳化、達到預測性維護,同時進一步引進AI與ML技術,輔助商業決策行動並從中獲益。
工業資料經緯實踐端到端的資料策略
當前的製造業通常會從概念驗證開始實作數位化應用,例如選擇一個工廠建立預測性維護,成功後再推展到其他工廠。不過,由於每個工廠環境的資料結構、採用的工具不盡相同,未必能完全套用。若要真正發揮資料的價值,並推動即時的洞察,AWS提出,可藉由AWS工業資料經緯(Industrial Data Fabric)來實踐端到端的資料策略,讓每個需要資料的人都能輕鬆地取用。
AWS工業資料經緯是一個架構框架,主要由AWS合作夥伴解決方案(例如HighByte Intelligence Hub、Element Unify),以及AWS IoT、AWS IoT TwinMaker、AWS IoT Sitewise、Amazon Monitron等雲端服務所組成。製造業可以根據自家環境需求,選擇適合的服務和解決方案組合。藉由工業資料經緯提供規範性指導,讓製造業能夠在整個價值鏈中加快資料擷取、釐清資料脈絡,以及能夠根據資料採取行動。
工業資料經緯不僅可整合來自多個工業資料來源的原始資料,還將這些資料與相關實體(例如資產、生產機台、材料、製程)產生的資料格式相互聯結。如此一來,資料需求者便可依據工作流程取得完整資料、運行分析。透過AWS工業資料經緯,組織不僅能加快資料擷取和建立關聯性,還能基於這些資料迅速行動,從而達成提升產品品質、促進創新設計、增強供應鏈彈性等商業目標。
雲平台為模型推論搭建高效運行環境
前述的AWS IoT,是AWS專為工業應用場域解決資料收集、整理、儲存、分析而設計的雲端服務。值得一提的是,Amazon SageMaker Neo可大幅提高利用雲端平台建立模型的速度,並將其成果部署到裝置。
Amazon SageMaker Neo可讓開發人員最佳化機器學習(ML)模型進行推論(Inference)。ML推論是使用經過訓練的機器學習模型進行預測的程序。針對模型進行高準確度訓練之後,開發人員通常還須花費大量時間和精力來調校模型,才可達到高效能運行。利用雲端平台推論,開發人員可彈性擴充執行個體的記憶體、運算處理能力,但若是要在記憶體與運算處理能力有限的邊緣裝置上進行推論,往往須花費數月時間手動調校模型,才能在資源有限的硬體環境實現可接受的運行效能。Amazon SageMaker Neo會自動最佳化機器學習模型,以便在雲端執行個體與邊緣裝置上進行推論時,使其執行速度提高25倍,而不會降低準確性。
SageMaker Neo自動最佳化Gluon、Keras、MXNet、PyTorch、TensorFlow、TensorFlow-Lite以及ONNX模型,以便在基於Ambarella、ARM、Intel、Nvidia、NXP、Qualcomm、Texas Instruments和Xilinx處理器的Android、Linux、Windows作業系統環境進行推論。SageMaker Neo可支援兩個主要平台的編譯和部署:雲端執行個體(包括AWS Inferentia晶片)與邊緣端主機。
選擇在雲端平台推論時,可透過SageMaker建立推論最佳化容器,來加快執行速度並節省成本。選擇在邊緣端主機時,SageMaker Neo透過自動調校選取的作業系統和處理器硬體的模型,可為開發人員大幅縮短手動調校時間。
SageMaker Neo採用的技術是Apache TVM與合作夥伴提供的編譯器、加速函式庫,為演算模型與硬體提供最佳可用效能。根據Apache軟體授權,AWS將編譯器程式碼貢獻給Apache TVM專案,將執行時間程式碼貢獻給Neo-AI開放原始碼專案,可讓處理器廠商、裝置製造商在通用環境中實現創新應用。