{{ childProduct.title_translations | translateModel }}
{{ getChildVariationShorthand(childProduct.child_variation) }}
{{ getSelectedItemDetail(selectedChildProduct, item).childProductName }} x {{ selectedChildProduct.quantity || 1 }}
{{ getSelectedItemDetail(selectedChildProduct, item).childVariationName }}
貨號1:AI實務應用_教育版
貨號2:AI實務應用_頂級教育版
打通AI落地的最後一哩,需要Edge AI開發部署人才!
推薦理由:
1.能以更輕量、更彈性地將訓練好的模型部署到各種邊緣裝置
2.避免AI訓練的高昂硬體成本,支援更多類型硬體及推論
3.提供更多預訓練模型及公開模型庫
4.提供簡潔有力的API程式,協助開發者解決不同AI模型導入
5.提升模型優化參數簡化及自動化
6.方便推論引擎在Intel的各種硬體進行推論
7.教材內容包含多種AI模型實作與解說
8.教材使用Intel平台讓計算機相關深度學習的性能達19倍以上
商品存貨不足,未能加入購物車
您所填寫的商品數量超過庫存
每筆訂單限購 {{ product.max_order_quantity }} 件
現庫存只剩下 {{ quantityOfStock }} 件
一般採用深度學習(Deep Learning, DL)方式的人工智慧(Artificial intelligence, AI)應用,在開發時須經過資料收集標註、模型選用訓練及最後部署到指定硬體進行推論工作。在訓練模型參數過程需經過數千到數萬次的推論才能使得參數最後收歛到足夠高的推論精度,而這項工作是須要耗費大量算力,所以通常會選用算力較高的硬體裝置(如GPU, TPU, FPGA)來完成。
當完成訓練後,推論只需執行一次便可得到結果,明顯可看出算力需求的差異。若推論時仍採用訓練時的裝置,雖可得到極佳的推論效能及無痛移轉部署,但所需的硬體成本也會連帶提升數十到數百倍,更不要說硬體裝置龐大的體積及功耗,所以很難適用到大部份的邊緣智能(Edge AI)應用。
通常邊緣智能應用有獨立性(不連網)、低延時、高隱私、低成本、低功耗及大量部署的特性,換句話說,其硬體效能可能就像腳踏車、機車,遠遠不如訓練模型用有如高鐵甚至飛機般高效能的硬體。因此如何將訓練好的模型經過適當的優化、減量及部署到不同的可推論硬體裝置就變成另一項重要課題。
為了讓邊緣智能應用能以更輕量、更彈性地將訓練好的模型部署到各種邊緣裝置上進行推論,2018年5月Intel推出了OpenVINO toolkit (Open Visual Inference and Neural network Optimization,以下簡稱OpenVINO)。
這項工具包不僅協助開發者解決不同AI開發框架(如TensorFlow, PyTorch, Mxnet, Caffe …)產生的模型導入,同時將模型轉換成統一的中介表達格式(Intermediate Representation, IR, 模型結構XML檔加模型權重BIN檔),方便推論引擎(Inference Engine)在自家的各種硬體(CPU, GPU, iGPU, FPGA, VPU)進行推論,如此就不必為了部署在不同硬體上要重新開發問題
【產品清單】
AI實務應用_教育版:
AI實務應用_頂級教育版: