論文の概要: InFi: End-to-End Learning to Filter Input for Resource-Efficiency in
Mobile-Centric Inference
- arxiv url: http://arxiv.org/abs/2209.13873v1
- Date: Wed, 28 Sep 2022 07:16:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:54:32.435331
- Title: InFi: End-to-End Learning to Filter Input for Resource-Efficiency in
Mobile-Centric Inference
- Title(参考訳): InFi: モバイル中心推論におけるリソース効率のための入力をフィルタするエンドツーエンド学習
- Authors: Mu Yuan, Lan Zhang, Fengxiang He, Xueting Tong, Miao-Hui Song,
Xiang-Yang Li
- Abstract要約: 入力フィルタリング問題を定式化し、推論モデルと入力フィルタの仮説複雑性を理論的に比較する。
そこで本研究では,ほとんどの最先端手法をカバーする,エンドツーエンドの学習可能な入力フィルタリングフレームワークを提案する。
6つの入力モダリティと複数のモバイル中心のデプロイメントをサポートするInFiの設計と実装を行う。
- 参考スコア(独自算出の注目度): 16.231578170869376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile-centric AI applications have high requirements for resource-efficiency
of model inference. Input filtering is a promising approach to eliminate the
redundancy so as to reduce the cost of inference. Previous efforts have
tailored effective solutions for many applications, but left two essential
questions unanswered: (1) theoretical filterability of an inference workload to
guide the application of input filtering techniques, thereby avoiding the
trial-and-error cost for resource-constrained mobile applications; (2) robust
discriminability of feature embedding to allow input filtering to be widely
effective for diverse inference tasks and input content. To answer them, we
first formalize the input filtering problem and theoretically compare the
hypothesis complexity of inference models and input filters to understand the
optimization potential. Then we propose the first end-to-end learnable input
filtering framework that covers most state-of-the-art methods and surpasses
them in feature embedding with robust discriminability. We design and implement
InFi that supports six input modalities and multiple mobile-centric
deployments. Comprehensive evaluations confirm our theoretical results and show
that InFi outperforms strong baselines in applicability, accuracy, and
efficiency. InFi achieve 8.5x throughput and save 95% bandwidth, while keeping
over 90% accuracy, for a video analytics application on mobile platforms.
- Abstract(参考訳): モバイル中心のAIアプリケーションは、モデル推論のリソース効率の要求が高い。
入力フィルタリングは冗長性を排除し、推論コストを削減するための有望なアプローチである。
従来,多くのアプリケーションに対して効果的な解法を調整してきたが,(1)入力フィルタリング技術の応用を導くための推論作業の理論的フィルタリング可能性,(2)入力フィルタリングが多様な推論タスクや入力コンテンツに広く有効であるように,機能埋め込みの堅牢な識別性,という2つの重要な疑問を残した。
そこで我々はまず,入力フィルタリング問題を定式化し,推論モデルと入力フィルタの仮説複雑性を理論的に比較し,最適化の可能性を理解する。
次に,最先端の手法をほとんどカバーし,堅牢な識別性を備えた特徴埋め込みでそれらを上回る,エンドツーエンドの学習可能な入力フィルタリングフレームワークを提案する。
6つの入力モダリティと複数のモバイル中心のデプロイメントをサポートするInFiの設計と実装を行う。
総合評価の結果から,InFiは適用性,精度,効率において高いベースラインを達成できた。
InFiは8.5倍のスループットを実現し、95%の帯域幅を節約し、90%以上の精度を維持している。
関連論文リスト
- A Semantic-Aware Multiple Access Scheme for Distributed, Dynamic 6G-Based Applications [14.51946231794179]
本稿では,無線スペクトルへの多重アクセス問題に対する新しい定式化を提案する。
その目的は、$alpha$-fairnessメトリックを使用して、使い勝手のトレードオフを最適化することにある。
Semantic-Aware Multi-Agent Double and Dueling Deep Q-Learning (SAMA-D3QL) 手法を提案する。
論文 参考訳(メタデータ) (2024-01-12T00:32:38Z) - Energizing Federated Learning via Filter-Aware Attention [39.17451229130728]
フェデレートラーニング(FL)は有望な分散パラダイムであり、データ共有の必要性を排除しつつ、データの異質性による課題に直面している。
パラメータ再構成にパーソナライズされたフィルタアテンションを利用するFedOFAを提案する。
コアとなるTFAモジュールは、パーソナライズされたフィルタ対応アテンションマップを正確に抽出するように設計されている。
AGPSは、冗長なニューロンを隠蔽しながら重要なニューロンを選択的に保持し、性能犠牲なしに通信コストを低減させる。
論文 参考訳(メタデータ) (2023-11-18T09:09:38Z) - Uncertainty Injection: A Deep Learning Method for Robust Optimization [16.13344685457395]
本稿では,頑健な最適化問題を解くために,ディープラーニングモデルを訓練するための不確実性注入のパラダイムを提案する。
我々は,無線通信を問題パラメータに不確実性が存在するアプリケーション分野として認識する。
提案手法の有効性を2つの応用例で示す。
論文 参考訳(メタデータ) (2023-02-23T19:59:24Z) - Online Learning under Budget and ROI Constraints via Weak Adaptivity [57.097119428915796]
制約付きオンライン学習問題に対する既存の原始双対アルゴリズムは、2つの基本的な仮定に依存している。
このような仮定は、標準の原始双対テンプレートを弱適応的後悔最小化器で与えることによって、どのように回避できるのかを示す。
上記の2つの前提が満たされていない場合に保証される、世界の最高の保証を証明します。
論文 参考訳(メタデータ) (2023-02-02T16:30:33Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - The Best of Many Worlds: Dual Mirror Descent for Online Allocation
Problems [7.433931244705934]
本稿では,意思決定者に対して未知の入力モデルを用いて,各要求に対する報酬とリソース消費を生成するデータ駆動型設定について考察する。
様々な入力モデルにおいて,どの入力に直面するかを知ることなく,優れた性能が得られるアルゴリズムの一般クラスを設計する。
我々のアルゴリズムはラグランジアン双対空間で動作し、オンラインミラー降下を用いて更新される各リソースに対して双対乗算器を保持する。
論文 参考訳(メタデータ) (2020-11-18T18:39:17Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z) - The Variational Bandwidth Bottleneck: Stochastic Evaluation on an
Information Budget [164.65771897804404]
多くのアプリケーションにおいて、複雑な入力データから関連する情報のみを抽出することが望ましい。
情報ボトルネック法は、これを情報理論最適化問題として定式化する。
本稿では,特権情報の推定値について,各例について決定する帯域幅のばらつきボトルネックを提案する。
論文 参考訳(メタデータ) (2020-04-24T18:29:31Z) - Continuous Domain Adaptation with Variational Domain-Agnostic Feature
Replay [78.7472257594881]
非定常環境での学習は、機械学習における最大の課題の1つだ。
非定常性はタスクドリフトまたはドメインドリフトによって引き起こされる。
本稿では,3つのコンポーネントから構成されるアプローチである変分ドメインに依存しない特徴リプレイを提案する。
論文 参考訳(メタデータ) (2020-03-09T19:50:24Z) - Triple Wins: Boosting Accuracy, Robustness and Efficiency Together by
Enabling Input-Adaptive Inference [119.19779637025444]
深層ネットワークは、(クリーンな自然画像の場合)正確さと(敵対的な摂動画像の場合)頑健さの相違に直面することを最近提案された。
本稿では,入力適応推論に関連するマルチエグジットネットワークについて検討し,モデル精度,ロバスト性,効率の最適化において「スイートポイント」を達成する上での強い期待を示す。
論文 参考訳(メタデータ) (2020-02-24T00:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。