論文の概要: JMSNAS: Joint Model Split and Neural Architecture Search for Learning
over Mobile Edge Networks
- arxiv url: http://arxiv.org/abs/2111.08206v1
- Date: Tue, 16 Nov 2021 03:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 03:47:42.513873
- Title: JMSNAS: Joint Model Split and Neural Architecture Search for Learning
over Mobile Edge Networks
- Title(参考訳): JMSNAS: モバイルエッジネットワーク上での学習のための統合モデル分割とニューラルアーキテクチャ検索
- Authors: Yuqing Tian, Zhaoyang Zhang, Zhaohui Yang, Qianqian Yang
- Abstract要約: モバイルエッジネットワーク上でのDNNモデルの自動生成とデプロイのために,ジョイントモデル分割とニューラルアーキテクチャサーチ(JMSNAS)フレームワークを提案する。
計算資源制約と通信資源制約の両方を考慮すると、計算グラフ探索問題を定式化する。
実験により,最先端の分割機械学習設計手法よりも提案手法が優れていることを確認した。
- 参考スコア(独自算出の注目度): 23.230079759174902
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The main challenge to deploy deep neural network (DNN) over a mobile edge
network is how to split the DNN model so as to match the network architecture
as well as all the nodes' computation and communication capacity. This
essentially involves two highly coupled procedures: model generating and model
splitting. In this paper, a joint model split and neural architecture search
(JMSNAS) framework is proposed to automatically generate and deploy a DNN model
over a mobile edge network. Considering both the computing and communication
resource constraints, a computational graph search problem is formulated to
find the multi-split points of the DNN model, and then the model is trained to
meet some accuracy requirements. Moreover, the trade-off between model accuracy
and completion latency is achieved through the proper design of the objective
function. The experiment results confirm the superiority of the proposed
framework over the state-of-the-art split machine learning design methods.
- Abstract(参考訳): モバイルエッジネットワークにディープニューラルネットワーク(DNN)をデプロイする上での大きな課題は、ネットワークアーキテクチャとすべてのノードの計算と通信能力にマッチするように、DNNモデルを分割する方法である。
これは本質的に、モデル生成とモデル分割という、2つの高度に結合した手順を含む。
本稿では,モバイルエッジネットワーク上でのDNNモデルの自動生成とデプロイのために,ジョイントモデル分割とニューラルアーキテクチャ検索(JMSNAS)フレームワークを提案する。
DNNモデルのマルチスプリット点を求める計算グラフ探索問題を計算資源制約と通信資源制約の両方を考慮して定式化し,そのモデルの精度要件を満たすよう訓練する。
さらに,目的関数の適切な設計により,モデル精度と完了遅延のトレードオフを実現する。
実験結果は、最先端の分割機械学習設計手法よりも提案フレームワークの方が優れていることを示す。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - An Attempt to Devise a Pairwise Ising-Type Maximum Entropy Model Integrated Cost Function for Optimizing SNN Deployment [0.0]
スパイキングニューラルネットワーク(SNN)デプロイメントプロセスでは、ニューラルネットワークをニューロモルフィックハードウェア内の処理ユニットに分割することが多い。
最適配置方式を見つけることはNPハード問題である。
これらの目的には、ニューロンの活動パターンによって形成されるネットワークダイナミクスを考慮する必要がある。
本手法は,ハードウェアに依存しないネットワークダイナミクスに着目し,特定のハードウェア構成とは独立してモデル化できる。
論文 参考訳(メタデータ) (2024-07-09T16:33:43Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Split-Et-Impera: A Framework for the Design of Distributed Deep Learning
Applications [8.434224141580758]
Split-Et-Imperaは、ディープネットワークの解釈可能性の原則に基づいて、ニューラルネットワークのベストスプリットポイントのセットを決定する。
異なるニューラルネットワーク再構成の迅速な評価のための通信認識シミュレーションを実行する。
これは、アプリケーションのサービス要件の品質と、正確性とレイテンシ時間の観点からのパフォーマンスのベストマッチを示唆している。
論文 参考訳(メタデータ) (2023-03-22T13:00:00Z) - Neural Architecture Search for Improving Latency-Accuracy Trade-off in
Split Computing [5.516431145236317]
スプリットコンピューティングは、IoTシステムにディープラーニングをデプロイする際のプライバシとレイテンシの問題に対処する、新たな機械学習推論技術である。
スプリットコンピューティングでは、ニューラルネットワークモデルは、エッジサーバとIoTデバイスをネットワークを介して分離し、協調的に処理される。
本稿ではスプリットコンピューティングのためのニューラルアーキテクチャサーチ(NAS)手法を提案する。
論文 参考訳(メタデータ) (2022-08-30T03:15:43Z) - Optimal Model Placement and Online Model Splitting for Device-Edge
Co-Inference [22.785214118527872]
デバイスのエッジコ推論は、リソース制約のある無線デバイスがディープニューラルネットワーク(DNN)ベースのアプリケーションを実行する新たな可能性を開く。
デバイスエッジ共振器のエネルギー・時間コストを最小限に抑えるため,モデル配置とオンラインモデル分割決定の協調最適化について検討した。
論文 参考訳(メタデータ) (2021-05-28T06:55:04Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。