韩国三级伦理在线播放_韩国伦理邻居_HD中文字幕在线播放,漂亮的嫂子3,潘甜甜手机里的悔悟,邻居老婆4

MCU AI/ML - 彌合智能和嵌入式系統之間的差距

2024 年 6 月 26 日 | Gopinath Krishniah | 閱讀本文需要 5 分鐘

人工智能 (AI) 和機器學習 (ML) 是關鍵技術,使系統能夠從數據中學習、進行推理并隨著時間的推移提高性能。這些技術經常用于大型數據中心和功能強大的 GPU,但是在資源受限的設備,例如微控制器 (MCU) 上進行部署的需求越來越大。

在本博客中,我們將探討 MCU 技術和 AI/ML 的交集,以及它如何影響低功耗邊緣設備。我們將討論在電池供電的 MCU 上運行 AI 的困難、創新和實際用例。


AI/ML 和 MCU:簡要概述

AI 創建可以執行類似人類任務的計算機系統,例如理解語言、尋找模式和做出決定。機器學習是人工智能的一個子集,涉及使用算法,讓計算機從數據中學習并隨著時間的推移取得進步。ML 模型可以尋找模式,對對象排序,并從示例中預測結果。

MCU 對于在邊緣設備上實現 AI 和 ML 至關重要。

基于 MCU 的邊緣 AI/ML 的一些用例包括:

  • 關鍵詞識別: 無需云連接即可識別特定詞語或短語(例如語音命令)
  • 傳感器融合: 結合來自多個傳感器的數據,比使用單個傳感器解決方案做出更明智的決策
  • 異常檢測: 檢測傳感器數據中可能指示故障、錯誤或威脅的異常值或異常模式,以進行預測性維護或質量控制
  • 對象檢測: 識別和定位由攝像頭或其他傳感器捕獲的圖像或視頻中的感興趣對象(例如,人臉、行人、車輛)。
  • 手勢識別: 解讀攝像頭或其他傳感器捕獲的圖像或視頻中的人類手勢(例如,手部動作、面部表情、身體姿勢),以改善人類與計算機的交互


MCU 上的 AI/ML 挑戰

深度學習模型,特別是深度神經網絡 (DNN),對于計算機視覺和自然語言處理等復雜任務來說已經變得不可或缺。然而,它們的計算需求很大。這種資源密集型模型對于日常設備來說是不切實際的,尤其是那些由邊緣設備中常見的低能耗 MCU 供電的設備。深度學習模型復雜性的增長是不可否認的。隨著 DNN 變得越來越復雜,其尺寸會不斷擴大,使其與 MCU 上可用的有限計算資源不再兼容。


什么是 TinyML?

TinyML 是指針對資源受限設備上的部署而優化的機器學習模型和技術。這些設備在生成數據的邊緣運行,并在本地執行推理。TinyML 系統通常在低功耗 MCU 上運行,在節點對本地收集的數據執行推理。推理是 AI 模型的真相時刻,測試其運用訓練中所學到知識的能力。本地推理使 MCU 能夠直接執行 AI 模型,無需依賴外部服務器或云服務即可做出實時決策。

在 AI/ML 背景下進行本地推理至關重要,原因有以下幾點:

資源限制: 許多嵌入式設備,特別是那些電池供電的設備,其內存、處理能力和能源效率等資源有限。傳統的通用微控制器由于其有限的處理能力和內存、有限的能源資源或缺乏片上加速而難以有效地執行 AI 任務。本地推理允許這些資源受限的設備執行 AI 工作負載,而不會消耗過多的功率來提高諸如以下方面的效率和性能:

用戶體驗增強: 舉一個例子:支持 AI 的電子貓門。通過訓練它來區分貓和其他物體,它只能為授權的貓打開門。在這里,本地推理通過確保安全性和便利性來改善用戶體驗,而不需要 RFID 項圈等其他硬件。

效率和性能:GPU 通常用于大規模 AI 部署,因為它們可以并行執行許多流程,這對有效的 AI 訓練至關重要。但是,GPU 成本高昂,超出了小型嵌入式應用的功耗預算。AI 優化的 MCU 具有專用體系結構,通過為 AI 工作負載提供更好的性能和功率效率實現平衡。Silicon Labs 將矩陣矢量處理器作為其對 AI/ML 支持的一部分。這種專用外圍設備旨在提升 AI/ML 算法或矢量數學運算的性能,以縮短推理時間并以較低的功率執行這些關鍵任務。

總之,邊緣的本地推理可以實現實時決策、降低延遲、強化安全性、為電池供電設備提供 AI 功能,并增強用戶體驗,使其成為現代計算系統的關鍵組件,同時尊重資源限制。


Silicon Labs 邊緣先驅 AI/ML 解決方案:

在動態技術環境中,Silicon Labs 是將人工智能 (AI) 和機器學習 (ML) 引入邊緣的開拓者。我們對創新的承諾帶來了突破性的解決方案,使微控制器 (MCU) 等資源受限設備具有智能功能。


針對 TinyML 優化的設備

MCU 及 無線 MCU EFR32xG24、EFR32xG28 和 EFR32xG26 產品家族結合了 78 MHz ARM Cortex?-M33 處理器、高性能無線電、精密模擬性能和 AI/ML 硬件加速器,為開發人員提供了靈活的邊緣智能部署平臺。這些 SOC 支持廣泛的無線物聯網協議,具有市場領先的安全性和 RF 性能/能效比。

當今的開發人員經常因在邊緣部署 AI/ML 而被迫付出高昂的性能或能源代價。xG24, xG28 和 xG26 產品家族作為首款配備專用 AI/ML 加速器的超低功耗設備,可降低總體設計復雜性,從而降低這些代價。這種專用硬件旨在處理復雜的計算,與僅采用固件的方法相比,推理速度提高 8 倍,能效提高 6 倍,與基于云的解決方案相比,性能更高。硬件加速器的使用減輕了主應用 MCU 推理的負擔,留出更多的時鐘周期為您的應用提供服務。

無線部產品營銷經理 Mark Beechum 討論了 Silicon Labs 如何幫助開發人員開始 AI/ML 開發功能豐富的低功耗設備。

簡化 AI/ML 開發的工具

構建、測試和部署機器學習所需算法的工具與運行這些算法的 MCU 同樣重要。通過與 TensorFlow、SensiML 和 Edge Impulse 等 TinyML 領域的行業翹楚合作,Silicon Labs 同時為初學者和專家提供了選擇。開發人員可以將這一新 AI/ML 工具鏈與 Silicon Labs 的 Simplicity Studio 配合使用,創建可從各種連接設備中獲取信息的應用程序,從而做出智能機器學習驅動的決策。

Silicon Labs 提供各種工具和資源來支持機器學習 (ML) 應用。以下是其中一部分:

機器學習應用程序: 該開發平臺支持嵌入式機器學習 (TinyML) 模型推理,由 TensorFlow Lite for Microcontrollers (TFLM) 框架提供支持。存儲庫包含利用 ML 的嵌入式應用程序的集合。

機器學習工具包 (MLTK): 這是一個 Python 包,具有命令行實用程序和腳本,有助于為 Silicon Lab 的嵌入式平臺開發機器學習模型。它包括從命令行界面或 Python 腳本執行 ML 操作、確定 ML 模型在嵌入式平臺上的執行效率以及使用 Google TensorFlow 訓練 ML 模型的功能。

Silicon Labs 提供 TinyML 解決方案作為機器學習工具包 (MLTK) 的一部分。該工具包包括 TinyML 基準測試使用的幾種模型。這些型號可在 Silicon Labs GitHub 上使用,包括異常檢測、圖像分類和關鍵詞識別。

AI/ML 驅動的邊緣設備為我們如何與周圍環境互動開辟了新的視野,它們很快將以令人驚嘆的方式改變我們的生活。Silicon Labs 處于 TinyML 創新的前沿,能夠以前所未有的方式將這些功能帶入連接的低功耗邊緣設備。

在我們近期的無線計算技術講座針對 AI/ML 邊緣優化的平臺中,詳細了解我們的 EFR 和 EFM MCU 平臺如何針對 AI/ML 邊緣進行優化。

Gopinath Krishniah
Gopinath Krishniah
高級產品營銷經理
關閉
正在加載結果
關閉
Powered by Translations.com GlobalLink OneLink Software