論文の概要: MatchNAS: Optimizing Edge AI in Sparse-Label Data Contexts via
Automating Deep Neural Network Porting for Mobile Deployment
- arxiv url: http://arxiv.org/abs/2402.13525v1
- Date: Wed, 21 Feb 2024 04:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 16:55:01.763880
- Title: MatchNAS: Optimizing Edge AI in Sparse-Label Data Contexts via
Automating Deep Neural Network Porting for Mobile Deployment
- Title(参考訳): matchnas: モバイルデプロイメントのためのディープニューラルネットワークポーティングの自動化による、スパースラベルデータコンテキストにおけるエッジaiの最適化
- Authors: Hongtao Huang, Xiaojun Chang, Wen Hu and Lina Yao
- Abstract要約: MatchNASはDeep Neural Networksをモバイルデバイスに移植するための新しいスキームである。
ラベル付きデータと非ラベル付きデータの両方を用いて、大規模なネットワークファミリを最適化する。
そして、さまざまなハードウェアプラットフォーム用に調整されたネットワークを自動的に検索する。
- 参考スコア(独自算出の注目度): 54.77943671991863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen the explosion of edge intelligence with powerful Deep
Neural Networks (DNNs). One popular scheme is training DNNs on powerful cloud
servers and subsequently porting them to mobile devices after being
lightweight. Conventional approaches manually specialized DNNs for various edge
platforms and retrain them with real-world data. However, as the number of
platforms increases, these approaches become labour-intensive and
computationally prohibitive. Additionally, real-world data tends to be
sparse-label, further increasing the difficulty of lightweight models. In this
paper, we propose MatchNAS, a novel scheme for porting DNNs to mobile devices.
Specifically, we simultaneously optimise a large network family using both
labelled and unlabelled data and then automatically search for tailored
networks for different hardware platforms. MatchNAS acts as an intermediary
that bridges the gap between cloud-based DNNs and edge-based DNNs.
- Abstract(参考訳): 近年、強力なディープニューラルネットワーク(dnn)によるエッジインテリジェンスの爆発が起きている。
1つの一般的なスキームは、強力なクラウドサーバ上でDNNをトレーニングし、その後、軽量になった後にモバイルデバイスに移植することである。
従来のアプローチでは、さまざまなエッジプラットフォーム用にDNNを手動でカスタマイズし、実際のデータで再トレーニングする。
しかし、プラットフォーム数が増加するにつれて、これらのアプローチは労働集約的かつ計算的に禁止される。
さらに、現実世界のデータは疎ラベルになりがちで、軽量モデルの難易度はさらに高まる。
本稿では,DNNをモバイルデバイスに移植するための新しいスキームであるMatchNASを提案する。
具体的には,ラベル付きデータと非ラベル付きデータの両方を用いて,大規模ネットワークファミリを同時に最適化し,異なるハードウェアプラットフォーム用に最適化されたネットワークを自動的に検索する。
MatchNASは、クラウドベースのDNNとエッジベースのDNNのギャップを埋める仲介役として機能する。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - A Converting Autoencoder Toward Low-latency and Energy-efficient DNN
Inference at the Edge [4.11949030493552]
エッジデバイスに適した低レイテンシかつエネルギー効率のDeep Neural Network (DNN) 推論フレームワークであるCBNetを提案する。
変換」オートエンコーダを使用して、ハードイメージを簡単なものに効率よく変換する。
CBNetは推論遅延の4.8倍のスピードアップと79%のエネルギー消費の削減を実現している。
論文 参考訳(メタデータ) (2024-03-11T08:13:42Z) - SwapNet: Efficient Swapping for DNN Inference on Edge AI Devices Beyond
the Memory Budget [18.63754969602021]
エッジ人工知能(AI)デバイス上のディープニューラルネットワーク(DNN)は、さまざまな自律的なモバイルコンピューティングアプリケーションを可能にする。
モデル圧縮やクラウドオフロードといった既存のソリューションは、DNN推論のメモリフットプリントを減らす。
We developed SwapNet, a efficient block swapping ecosystem for edge AI devices。
論文 参考訳(メタデータ) (2024-01-30T05:29:49Z) - Salted Inference: Enhancing Privacy while Maintaining Efficiency of
Split Inference in Mobile Computing [8.915849482780631]
分割推論では、ディープニューラルネットワーク(DNN)が分割され、DNNの初期段階をエッジで、DNNの後半をクラウドで実行する。
これはオンデバイス機械学習の2つの重要な要件を満たす:入力のプライバシと計算効率である。
本稿では,DNNの初期部分を実行するエッジのクライアントに対して,推論時にDNNの出力のセマンティック解釈を制御する,新たなアプローチであるSalted DNNを紹介する。
論文 参考訳(メタデータ) (2023-10-20T09:53:55Z) - Sparse-DySta: Sparsity-Aware Dynamic and Static Scheduling for Sparse
Multi-DNN Workloads [65.47816359465155]
複数のディープニューラルネットワーク(DNN)を並列に実行することは、両エッジデバイスで新たなワークロードとなっている。
スパースマルチDNNスケジューリングに静的なスケジューラパターンと動的スケジューラ情報の両方を利用する新しいスケジューラDystaを提案する。
提案手法は, 遅延制約違反率を最大10%削減し, 平均正規化ターンアラウンド時間で約4倍に向上する。
論文 参考訳(メタデータ) (2023-10-17T09:25:17Z) - Enabling Deep Learning on Edge Devices [2.741266294612776]
ディープニューラルネットワーク(DNN)は、コンピュータビジョン、自然言語処理、強化学習など、多くの異なる認識タスクに成功している。
高性能DNNは資源消費に大きく依存している。
近年、AR/VR、モバイルアシスタント、モノのインターネットなど、新たなインテリジェントなアプリケーションでは、リソース制約のあるエッジデバイスにDNNをデプロイする必要があります。
この論文では,エッジデバイスへの推論,エッジデバイスへの適応,エッジデバイスへの学習,エッジサーバシステムという4つのエッジインテリジェンスシナリオについて検討した。
論文 参考訳(メタデータ) (2022-10-06T20:52:57Z) - Training Graph Neural Networks with 1000 Layers [133.84813995275988]
我々は、GNNのメモリとパラメータ効率を向上させるために、可逆接続、グループ畳み込み、重み付け、平衡モデルについて検討する。
我々の知る限りでは、RevGNN-Deepは文学で最も深いGNNである。
論文 参考訳(メタデータ) (2021-06-14T15:03:00Z) - Dynamic DNN Decomposition for Lossless Synergistic Inference [0.9549013615433989]
ディープニューラルネットワーク(DNN)は、今日のデータ処理アプリケーションで高性能を維持します。
精度損失のない相乗的推論のための動的DNN分解システムD3を提案する。
d3は最先端のdnn推論時間を最大3.4倍に上回り、バックボーンネットワーク通信のオーバーヘッドを3.68倍に削減する。
論文 参考訳(メタデータ) (2021-01-15T03:18:53Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。