論文の概要: AdaMTL: Adaptive Input-dependent Inference for Efficient Multi-Task
Learning
- arxiv url: http://arxiv.org/abs/2304.08594v1
- Date: Mon, 17 Apr 2023 20:17:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 16:30:12.068107
- Title: AdaMTL: Adaptive Input-dependent Inference for Efficient Multi-Task
Learning
- Title(参考訳): AdaMTL:効率的なマルチタスク学習のための適応型入力依存推論
- Authors: Marina Neseem, Ahmed Agiza, Sherief Reda
- Abstract要約: マルチタスク学習モデルのためのタスク認識推論ポリシーを学習する適応型フレームワークであるAdaMTLを紹介する。
AdaMTLは計算複雑性を43%削減し、シングルタスクモデルと比較して精度を1.32%改善した。
Vuzix M4000 スマートグラス上に展開すると、AdaMTL は推論遅延とエネルギー消費をそれぞれ 21.8% と 37.5% に削減する。
- 参考スコア(独自算出の注目度): 1.4963011898406864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern Augmented reality applications require performing multiple tasks on
each input frame simultaneously. Multi-task learning (MTL) represents an
effective approach where multiple tasks share an encoder to extract
representative features from the input frame, followed by task-specific
decoders to generate predictions for each task. Generally, the shared encoder
in MTL models needs to have a large representational capacity in order to
generalize well to various tasks and input data, which has a negative effect on
the inference latency. In this paper, we argue that due to the large variations
in the complexity of the input frames, some computations might be unnecessary
for the output. Therefore, we introduce AdaMTL, an adaptive framework that
learns task-aware inference policies for the MTL models in an input-dependent
manner. Specifically, we attach a task-aware lightweight policy network to the
shared encoder and co-train it alongside the MTL model to recognize unnecessary
computations. During runtime, our task-aware policy network decides which parts
of the model to activate depending on the input frame and the target
computational complexity. Extensive experiments on the PASCAL dataset
demonstrate that AdaMTL reduces the computational complexity by 43% while
improving the accuracy by 1.32% compared to single-task models. Combined with
SOTA MTL methodologies, AdaMTL boosts the accuracy by 7.8% while improving the
efficiency by 3.1X. When deployed on Vuzix M4000 smart glasses, AdaMTL reduces
the inference latency and the energy consumption by up to 21.8% and 37.5%,
respectively, compared to the static MTL model. Our code is publicly available
at https://github.com/scale-lab/AdaMTL.git.
- Abstract(参考訳): 現代の拡張現実アプリケーションは、各入力フレームで同時に複数のタスクを実行する必要がある。
マルチタスク学習(MTL)は、複数のタスクがエンコーダを共有して入力フレームから代表的特徴を抽出し、タスク固有のデコーダがタスク毎に予測を生成する、効果的なアプローチである。
一般に、MLLモデルにおける共有エンコーダは、様々なタスクや入力データによく適応するために、大きな表現能力を持つ必要があり、これは推論遅延に悪影響を及ぼす。
本稿では,入力フレームの複雑さのばらつきが大きいため,出力にはいくつかの計算が不要な場合があることを論じる。
そこで本稿では,MTLモデルのタスク認識推論ポリシーを入力依存で学習するフレームワークであるAdaMTLを紹介する。
具体的には,タスク対応の軽量ポリシネットワークを共有エンコーダにアタッチし,mtlモデルと協調して不要な計算を認識する。
実行時、タスク対応ポリシネットワークは、入力フレームとターゲットの計算複雑性に応じて、モデルのどの部分がアクティベートするかを決定します。
PASCALデータセットの大規模な実験により、AdaMTLは計算複雑性を43%削減し、シングルタスクモデルと比較して精度を1.32%改善した。
SOTA MTL法と組み合わせて、AdaMTLは精度を7.8%向上させ、効率を3.1倍向上させる。
Vuzix M4000 スマートグラス上に展開すると、AdaMTL は静的 MTL モデルと比較して、推論遅延とエネルギー消費をそれぞれ 21.8% と 37.5% に削減する。
私たちのコードはhttps://github.com/scale-lab/adamtl.gitで公開しています。
関連論文リスト
- AdapMTL: Adaptive Pruning Framework for Multitask Learning Model [5.643658120200373]
AdapMTLはマルチタスクモデルのための適応型プルーニングフレームワークである。
複数のタスクにまたがって、空間割り当てと精度のパフォーマンスのバランスをとる。
最先端の刈り取り法に比べて優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-07T17:19:15Z) - Coarse Correspondences Boost Spatial-Temporal Reasoning in Multimodal Language Model [51.83436609094658]
本稿では,2次元画像を入力として,MLLMの時空間推論を強化する軽量な手法である粗対応を導入する。
本手法は,映像のフレーム間や異なる視点における主物体の対応性を特定するために,軽量な追跡モデルを用いている。
この単純なトレーニングフリーアプローチは、4つのベンチマークでGPT4-V/Oに一定の利得をもたらすことを実証する。
論文 参考訳(メタデータ) (2024-08-01T17:57:12Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - Efficient Controllable Multi-Task Architectures [85.76598445904374]
本稿では,共有エンコーダとタスク固有デコーダからなるマルチタスクモデルを提案する。
我々のキーとなる考え方は、タスク固有のデコーダの容量を変化させ、計算コストの総和を制御し、タスクの重要度を制御することである。
これにより、与えられた予算に対してより強力なエンコーダを許可し、計算コストの制御を高め、高品質のスリム化サブアーキテクチャを提供することにより、全体的な精度を向上させる。
論文 参考訳(メタデータ) (2023-08-22T19:09:56Z) - Deformable Mixer Transformer with Gating for Multi-Task Learning of
Dense Prediction [126.34551436845133]
CNNとTransformerには独自の利点があり、MTL(Multi-task Learning)の高密度予測に広く使われている。
本稿では,変形可能なCNNと問合せベースのTransformerの長所を共用したMTLモデルを提案する。
論文 参考訳(メタデータ) (2023-08-10T17:37:49Z) - Edge-MoE: Memory-Efficient Multi-Task Vision Transformer Architecture
with Task-level Sparsity via Mixture-of-Experts [60.1586169973792]
M$3$ViTは、Mix-of-experts (MoE)を導入した最新のマルチタスクViTモデルである。
MoEは精度の向上と80%以上の削減計算を実現しているが、FPGAに効率的なデプロイを行う上での課題は残されている。
Edge-MoEと呼ばれる私たちの研究は、アーキテクチャの革新の集合を伴って、マルチタスクのViTのための最初のエンドツーエンドFPGAアクセラレータを導入するという課題を解決します。
論文 参考訳(メタデータ) (2023-05-30T02:24:03Z) - M$^3$ViT: Mixture-of-Experts Vision Transformer for Efficient Multi-task
Learning with Model-Accelerator Co-design [95.41238363769892]
マルチタスク学習(MTL)は、複数の学習タスクを単一のモデルにカプセル化し、それらのタスクを共同でよりよく学習できるようにする。
現在のMTLレギュレータは、1つのタスクだけを実行するためにさえ、ほぼすべてのモデルを起動する必要がある。
効率的なオンデバイスMTLを実現するためのモデル-アクセラレータ共設計フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-26T15:40:24Z) - AutoMTL: A Programming Framework for Automated Multi-Task Learning [23.368860215515323]
マルチタスク学習(MTL)は、一連のタスクを共同で学習する。
MTLの普及を妨げている大きな障壁は、コンパクトなマルチタスクモデルを開発するための体系的なサポートの欠如である。
MTLモデル開発を自動化する最初のプログラミングフレームワークであるAutoMTLを開発した。
論文 参考訳(メタデータ) (2021-10-25T16:13:39Z) - Conditionally Adaptive Multi-Task Learning: Improving Transfer Learning
in NLP Using Fewer Parameters & Less Data [5.689320790746046]
マルチタスク学習(MTL)ネットワークは、異なるタスク間で学習知識を伝達するための有望な方法として登場した。
しかし、MTLは、低リソースタスクへの過度な適合、破滅的な忘れ込み、負のタスク転送といった課題に対処しなければならない。
本稿では,新しい条件付アテンション機構とタスク条件付きモジュール群からなるトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-19T02:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。