QNAP 新聞室

掌握 QNAP 最新的新聞資訊、獎項並與我們團隊聯繫

威聯通科技推出 Mustang 系列運算加速卡,搭載 Intel VPU / FPGA 視覺加速解決方案,助力 AI 深度學習推論

威聯通科技推出 Mustang 系列運算加速卡,搭載 Intel VPU / FPGA 視覺加速解決方案,助力 AI 深度學習推論

台灣,台北,2019 年 5 月 17 日 – 運算、網通及儲存解決方案的領導廠商威聯通®科技 (QNAP® Systems, Inc.) 針對 AI 深度學習推論推出兩款運算加速卡,包含:Mustang-V100 VPU 加速卡及 Mustang-F100 FPGA 加速卡。使用者於 Intel® 伺服器/PC 或 QNAP NAS 的 PCIe 擴充槽安裝加速卡,可提升電腦視覺和 AI 應用深度學習推論的運算能力,在工業自動化、醫療診斷、智慧零售和影像監控等領域皆可發揮應用潛能。

威聯通產品經理林禮涵表示:「運算速度是提高 AI 人工智慧應用效率的關鍵。QNAP Mustang-V100 與 Mustang-F100 加速卡專為 OpenVINO™ 架構設計,並搭配 Intel 硬體優化方案,以及 QNAP 特別開發的 OpenVINO™ Workflow Consolidation Tool 應用程式,協助用戶縮短時間達成複雜 AI 運算與深度學習推論的目標需求。」

Mustang-V100 與 Mustang-F100 加速卡,讓使用者以經濟、效率的方式為 Intel 伺服器/PC 或 QNAP NAS 提供即時 AI 推論效能加速方案,並可搭配 OpenVINO 工具套件,優化處理影像分類及電腦視覺的推論工作負載。OpenVINO 為 Intel 深度學習開發工具包,提供模型優化器和推論引擎,可將預先訓練的深度學習模型 (如 Caffe、TensorFlow) 轉換成 IR 檔案格式,廣泛支援 Intel 平台裝置 (包含 CPU、GPU、FPGA 及 VPU 等硬體加速晶片) 來執行推論,可協助縮短開發時間,同時簡化深度學習推論和電腦視覺解決方案的部署流程。

QNAP 的創新之路不斷推動著 QNAP NAS 展現更多元、更廣泛的用途,其大儲存空間兼具 PCIe 彈性擴充的特性,在 AI 應用上亦能發揮相當優勢。QNAP 所推出的 OpenVINO™ Workflow Consolidation Tool (簡稱 OWCT) 採用了 技術;藉由安裝 OWTC,搭載 Intel 處理器的 QNAP NAS 即成為理想的推論伺服器,協助企業組織快速發展自己的推論系統。AI 開發者可將訓練好的模型部署於一台 QNAP NAS 上進行推論,並安裝 Mustang-V100 或 Mustang-F100 加速卡讓推論效能更上一層。

特定 QNAP NAS 安裝 QTS 4.4.0 作業系統最新版本即可支援 Mustang-V100 及 Mustang-F100 加速卡。關於特定 QNAP NAS 型號,請參閱 QNAP 網站。OWCT 應用程式請至 QTS App Center 下載安裝。

新產品主要規格

  • Mustang-V100-MX8-R10
    半高式,採用 8 顆 Intel® Movidius™ Myriad™ X MA2485 VPU 晶片,PCI Express Gen2 x4 介面,耗電量 < 30 瓦
  • Mustang-F100-A10-R10
    半高式,採用 Intel® Arria® 10 GX1150 FPGA 晶片,PCI Express Gen3 x8 介面,耗電量 < 60 瓦

關於 QNAP

QNAP 命名源自於高品質網路設備製造商(Quality Network Appliance Provider),我們致力研發軟體應用,匠心優化硬體設計,並設立自有生產線以提供全面而先進的科技解決方案。QNAP 專注於儲存、網通及智慧視訊產品創新,並提供 Cloud NAS 解決方案,透過軟體訂閱制及多元化服務管道建構嶄新的科技生態圈。在 QNAP 的企業藍圖中,NAS 早已突破儲存裝置的框架,搭配雲基礎網路架構上的多項研發創新,協助客戶高效率導入人工智慧分析、邊緣運算及資訊整合應用,創造更大優勢與價值。

媒體洽詢

marketing@qnap.com

選擇規格

      顯示更多 隱藏更多

      選擇其他偏好的語言:

      back to top