Skip to Content

什麼是機器學習基礎架構?

機器學習(ML)基礎架構,包括 MLOps,是指支援機器學習模型與應用程式開發、部署與管理所需的基礎技術堆疊與資源。它在人工智慧(AI)領域扮演了關鍵角色,為資料科學家和工程師提供必要的工具和框架,以有效建立和擴展 ML 解決方案。

隨著企業越來越依賴ML模型,例如即時決策,並取得競爭優勢,擁有穩固的 ML 基礎架構對企業越來越重要。 

本文將介紹什麼是 ML 基礎架構、其關鍵元件、為何它很重要,以及 ML 基礎架構的最佳做法和挑戰。 

什麼是機器學習基礎架構?關鍵要素是什麼?

ML 基礎架構是指支援機器學習模型與應用程式開發、訓練、部署與管理所需的工具、技術與資源。它為資料科學家、工程師和開發人員提供必要的基礎架構,以有效且高效地與機器學習演算法和模型合作,在 AI 生態系統中扮演關鍵角色。

ML 基礎架構有幾個關鍵要素: 

  • 開發環境:ML 基礎架構為資料科學家和工程師提供開發機器學習模型的環境和工具。這包括 Jupyter Notebook 等整合式開發環境 (IDE)、Python 或 R 等程式設計語言,以及 TensorFlowPyTorchscikit-learn 等函式庫/框架。這些工具讓研究人員和開發人員能夠使用各種技術來實驗不同的演算法、預先處理資料和訓練模型。
  • 資料管理:ML 基礎架構包含有效管理及處理資料的元件。這涉及 SQL 或 NoSQL 資料庫、資料湖泊和 HDFS 等分散式檔案系統雲端資料儲存方案:。資料管道和 ETL(擷取、轉換、載入)流程也是ML基礎架構的一部分,有助於擷取、清理、轉換和準備資料,以訓練 ML 模型。
  • 運算資源:ML 模型,尤其是深度學習模型,通常需要大量的運算資源來進行訓練和推論。ML 基礎架構可讓您在地端或雲端中存取運算資源,例如 CPU、GPU 和 TPU (Tensor Processing Units)。分散式運算框架如 Apache Spark 和資料處理平台如 Hadoop,也可以成為 ML 基礎架構的一部分,以處理大規模資料處理和模型訓練任務。
  • 模型訓練與最佳化:如前所述,ML 基礎架構支援 ML 模型的訓練和最佳化。這包括超參數調諧、模型評估和實驗的基礎架構,以提高模型的效能和準確性。自動化 ML 工具和平台也是 ML 基礎架構的一部分,可簡化非專家的模型選擇、訓練和部署流程。
  • 模型部署與服務:一旦 ML 模型經過訓練與驗證,ML 基礎架構便能促進部署,並在生產環境中提供服務。這涉及到建立可擴充且可靠的 API 或微服務,以提供模型產生的預測或深度資訊。Docker 和 Kubernetes 等調度工具等容器化技術,通常用於在容器化環境中部署和管理 ML 模型,確保可擴充性、容錯性及高效率的資源利用率。
  • 監控與管理:ML 基礎架構包含監控與管理功能,可追蹤部署的 ML 模型之效能、健全度與使用情形。監控工具提供模型漂移、資料品質問題,以及效能指標(如準確性、延遲和傳輸量)的深度資訊。模型管理平台有助於版本化、更新和維護部署的模型,確保它們能保持有效並隨時更新,並因應不斷演變的資料和業務需求。

ML 基礎架構的重要性

ML 基礎架構因各種原因而變得極為重要,包括:

  • 資料爆炸:企業正在從各種來源收集大量資料,因此需要可擴充的基礎架構,才能有效率地處理和分析這些資料。
  • ML 模型規模越來越大,也越來越複雜:深度學習網路等ML模型需要大量的運算能力和特殊硬體(如 GPU 和 TPU)來進行訓練和推論,進而推動對進階基礎架構配置的需求。 
  • 可擴充性:隨著 ML 模型的複雜性和資料量不斷增加,擁有可擴充的基礎架構變得至關重要。其中包括分散式運算框架(如 Apache Spark)、雲端資源(如 AWS、Google Cloud Platform 和 Azure),以及容器化技術(如 Docker 和 Kubernetes),這些技術可實現高效的資源分配和管理。
  • 即時決策:金融、醫療保健和電子商務等仰賴即時深度資訊與預測的產業,都需要強大的ML基礎架構,才能處理低延遲、高傳輸量的工作負載。 
  • 競爭優勢:公司越來越認識到利用 AI 和 ML 技術來改善決策、提升客戶體驗、自動化流程,以及發掘新商機的競爭優勢。可靠的 ML 基礎架構對於大規模實現這些效益至關重要。
  • 法規合規性:遵循 GDPR 和 CCPA 等資料隱私和安全法規,需要健全的基礎架構來實現資料治理、可稽核性和模型解釋性,從而推動對 ML 基礎架構的投資,並具有內建的治理功能。

實作機器學習基礎架構的最佳做法

實作 ML 基礎架構的最佳做法包括:

可擴充性

ML 基礎架構應具備擴充能力,以處理不斷增長的資料量、模型複雜性和使用者需求。 

請務必:

  • 選擇 AWS、Google Cloud Platform 或 Azure 等雲端式解決方案,提供針對 ML 工作負載量身訂做的可擴充運算資源、儲存選項及託管服務。
  • 使用分散式運算框架(如 Apache Spark、Dask)和可擴充的儲存系統(如 Hadoop 分散式檔案系統、Amazon S3)來處理大型資料集和平行運算。 
  • 實施自動擴展功能,根據工作負載需求動態調整資源分配,確保資源利用和效能的高效率。

安全性

ML 基礎架構必須遵守安全性最佳實務,以保護敏感資料、模型和基礎架構元件,避免未經授權的存取、入侵和漏洞。

請務必:

  • 應用加密技術(如傳輸資料時採用 SSL/TLS、靜態加密),以保護 ML 基礎架構內的資料和通訊。
  • 實施存取控制、驗證機制和角色型權限,以限制存取敏感資源和 API。
  • 定期更新並修補軟體元件、程式庫和相依性,以解決安全漏洞並維護安全的環境。
  • 請考慮在安全且隔離的環境中部署ML模型(例如 Kubernetes 命名空間、虛擬私有雲),以降低風險並確保符合資料保護法規。

成本優化

ML 基礎架構應符合成本效益,同時符合效能、擴充性和可靠性需求。

請務必:

  • 運用點狀實例或可先佔的 VM(若雲端供應商支援),並利用無伺服器運算處理事件驅動的工作負載,以優化資源利用率。
  • 使用監控工具(如 CloudWatch、Stackdriver、Prometheus)來監控和分析資源使用、效能指標和成本趨勢,以找出優化機會和節省成本的措施。實施成本控制和預算策略(例如資源標記、使用配額、預算警示),以管理支出、防止超額配置,並優化不同 ML 專案和團隊的支出。
  • 考慮使用符合成本效益的儲存解決方案(例如物件式資料儲存、分層式儲存選項),以資料存取模式和保留需求為基礎,在不犧牲效能的情況下將儲存成本降至最低。

工具與技術選擇

選擇合適的工具與技術,對於建立健全且高效率的 ML 基礎架構至關重要,該基礎架構符合專案需求、團隊專業知識與長期目標。

請務必:

  • 評估ML專案的特定需求,例如資料量、模型複雜度、即時處理需求,以及與現有系統的整合。
  • 選擇工具和平台時,請考慮使用簡易性、可擴充性、社群支援、與程式設計語言和框架的相容性、供應商鎖定風險,以及成本等因素。
  • 運用熱門的ML平台和框架,如 TensorFlow、PyTorch、scikit-learn 和 Apache Spark,進行模型開發、訓練和分散式運算任務。
  • 探索由雲端供應商(例如 AWS SageMaker、Google Cloud AI Platform、Azure Machine Learning)提供的託管ML服務,以簡化ML工作流程、自動化模型部署,以及可擴充的基礎架構配置。
  • 運用容器化技術(如 Docker、Kubernetes),在不同環境中持續包裝和部署 ML 應用程式,確保可攜性、可再現性和可擴充性。
  • 考慮使用 ML 特定工具進行工作流程調度(如 Apache Airflow、Kubeflow Pipelines)、模型版本和管理(如 MLflow、DVC),以及監控(如 Prometheus、Grafana),以提升 ML 團隊的生產力、協作和營運能見度。

ML 基礎架構的挑戰

管理 ML 基礎架構時,組織必須面對各種挑戰,以確保營運順暢,並成功進行 ML 專案。 

以下是管理ML基礎架構和有效克服潛在解決方案/策略時面臨的一些常見挑戰。

資料版本和管理

管理版本控制並追蹤跨資料集、預處理步驟和功能工程的變更可能具有挑戰性,導致實驗的重製不一致和困難。 

請考慮:  

  • 使用像 Git 這樣的版本控制系統,不僅可以用來管理程式碼,還可以用來管理資料集、預先處理指令碼和模型假影。此外,確保資料科學家以結構化的方式進行變革並記錄轉換。
  • 使用 DVC (資料版本控制)、Pachyderm 或 MLflow 等資料版本工具和平台來追蹤變更、建立可重複的資料管道,以及有效管理大型資料集,也同樣有幫助。 
  • 實施資料譜系追蹤,以瞭解不同版本資料集、功能和模型之間的譜系和相依性,有助於稽核能力和再現性。

資源分配與最佳化

為訓練、實驗和部署任務最佳化配置資源(例如運算實例、GPU、記憶體)可能相當複雜,導致資源利用不足或配置過度。

請考慮:

  • 使用監控和管理工具(如 CloudWatch、Prometheus、Grafana)來監控資源利用率、效能指標和工作負載模式,以找出資源瓶頸和優化機會。
  • 根據工作負載需求、資源使用門檻和成本考量,實施自動擴展政策,以動態調整資源分配,並根據需要上下擴展基礎架構資源。
  • 使用容器化與調度平台(如 Docker、Kubernetes),有效部署與管理 ML 工作負載,並利用容器式隔離、資源隔離與排程功能,進行資源最佳化。

模型部署與服務

由於相依性、版本化問題、擴充性需求,以及整合的複雜性,將ML模型部署到生產環境中,並以低延遲可靠地提供預測可能是一項挑戰。

請考慮:

  • 使用 Docker 將 ML 模型容器化,以封裝相依性、程式庫和執行環境,確保在不同環境(如開發、測試、生產)之間部署一致。
  • 使用 TensorFlow Serving、TorchServe 或 FastAPI 等模型服務平台和框架,提供可擴充的高效能模型服務,並支援模型版本化、監控和 A/B 測試。
  • 實作持續整合/持續部署(CI/CD)管道,以進行自動化模型部署、測試和版本化,以確保無縫更新、復原功能,以及與部署工作流程的整合。
  • 運用無伺服器運算平台(例如 AWS Lambda、Azure Functions)提供事件驅動模型服務、成本優化,並根據需求量和並行性自動擴展。

監控與績效管理

如果沒有適當的監控與記錄機制,即時監控ML模型、基礎架構元件與工作流程的效能、健全狀況與行為可能相當困難。

請考慮:

  • 實施記錄和監控解決方案(如 ELK 堆疊、Prometheus/Grafana、雲端監控),以追蹤ML工作流程和基礎架構中的關鍵效能指標(如準確性、延遲、傳輸量)、系統日誌、錯誤和異常情況。
  • 設定警示機制和閾值,以主動偵測並回應效能問題、故障,以及與預期行為的偏差,確保系統可靠性和正常運行時間。
  • 使用分散式追蹤工具(例如 Jaeger、Zipkin)追蹤分散式 ML 系統中的端到端執行路徑和相依性,協助偵錯、最佳化和效能瓶頸的根本原因分析。

結論

ML 基礎架構透過解決資料版本、資源分配、模型部署和效能監控等關鍵挑戰,在 AI 計劃的成功中扮演關鍵角色。ML 基礎架構的有效管理涉及實施最佳實務,並利用適當的工具和策略來克服這些挑戰。企業組織可透過資料與程式碼的版本控制系統、自動擴充與容器化來優化資源配置、使用可擴充服務平台部署模型,以及即時監控效能指標,進而確保 ML 專案的可靠性、擴充性與效率。

實作健全的 ML 基礎架構不僅能提升團隊內的生產力和協作,還能讓組織推動創新、達成業務目標,並釋放 AI 技術的全部潛力。它讓資料科學家、工程師和開發人員能夠實驗複雜的模型、擴展解決方案以處理不斷增長的資料量,並自信地將預測模型部署到生產中。 

Pure Storage 開發FlashStack® 等解決方案,專門解決 AI 和 ML 資料管道帶來的挑戰。我們提供專為企業規模最佳化的 AI-Ready 基礎架構解決方案,並協助您擴展 AI 和 ML 的資料中心。深入了解 Pure Storage 如何加速 AI 和 ML,並支援您的 ML 基礎架構。

04/2025
High-performance AI for Federal Agencies
Accelerate IT for federal agencies with simple, accelerated, and scalable AI infrastructure from Pure Storage and NVIDIA.
解決方案簡介
4 頁

瀏覽重要資訊與活動

精神領袖
創新競賽

儲存創新最前線的產業領導者最新深度資訊與觀點。

了解更多資訊
分析報告
規劃高度網路彈性的未來

了解協作策略,完整運用網路安全投資,並確保迅速回應與復原。

閱讀報告
資源
儲存設備的未來:AI 紀元的新準則

了解 AI 等新挑戰如何促成資料儲存需求轉型,需要嶄新思維與現代化做法才能成功。

下載電子書
資源
不再購買儲存,擁抱平台體驗

探索企業級儲存平台需求、元件與選用流程。

閱讀報告
聯繫我們
聯絡Pure訊息 標誌
聊天標誌
問題或建議

如對Pure的產品或認證,有任何的疑問或建議,歡迎與我們聯繫!

關鍵標誌
預約試用

預約現場示範,親眼看看 Pure 如何幫助您將資料轉化為強大的成果。 

聯絡我們:886-2-3725-7989

媒體:pr@purestorage.com

 

Pure Storage總部

34F, Taipei Nanshan Plaza,

No. 100, Songren Road,

Xinyi District,

Taipei City 110016

Taiwan (R.O.C.)

800-379-7873 (一般資訊)

info@purestorage.com

關閉
關閉關閉 X 標誌
您的瀏覽器已不受支援!

較舊版的瀏覽器通常存在安全風險。為讓您使用我們網站時得到最佳體驗,請更新為這些最新瀏覽器其中一個。