論文の概要: On the Energy and Communication Efficiency Tradeoffs in Federated and
Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2212.01049v1
- Date: Fri, 2 Dec 2022 09:40:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 17:52:43.793586
- Title: On the Energy and Communication Efficiency Tradeoffs in Federated and
Multi-Task Learning
- Title(参考訳): フェデレーション・マルチタスク学習におけるエネルギー・通信効率トレードオフについて
- Authors: Stefano Savazzi, Vittorio Rampa, Sanaz Kianoush and Mehdi Bennis
- Abstract要約: マルチタスク学習(MTL)は、従来の伝達学習手法と比較して、タスク間の共通性を利用して効率を向上させる。
本稿では,MAML(Model-Agnostic Meta-Learning)パラダイムによって駆動され,分散無線ネットワークに実装されるMTLプロセスのエネルギーコストについて,初めて考察する。
- 参考スコア(独自算出の注目度): 42.37180749113699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in Federated Learning (FL) have paved the way towards the
design of novel strategies for solving multiple learning tasks simultaneously,
by leveraging cooperation among networked devices. Multi-Task Learning (MTL)
exploits relevant commonalities across tasks to improve efficiency compared
with traditional transfer learning approaches. By learning multiple tasks
jointly, significant reduction in terms of energy footprints can be obtained.
This article provides a first look into the energy costs of MTL processes
driven by the Model-Agnostic Meta-Learning (MAML) paradigm and implemented in
distributed wireless networks. The paper targets a clustered multi-task network
setup where autonomous agents learn different but related tasks. The MTL
process is carried out in two stages: the optimization of a meta-model that can
be quickly adapted to learn new tasks, and a task-specific model adaptation
stage where the learned meta-model is transferred to agents and tailored for a
specific task. This work analyzes the main factors that influence the MTL
energy balance by considering a multi-task Reinforcement Learning (RL) setup in
a robotized environment. Results show that the MAML method can reduce the
energy bill by at least 2 times compared with traditional approaches without
inductive transfer. Moreover, it is shown that the optimal energy balance in
wireless networks depends on uplink/downlink and sidelink communication
efficiencies.
- Abstract(参考訳): フェデレートラーニング(FL)の最近の進歩は、ネットワークデバイス間の協調を利用して、複数の学習タスクを同時に解決するための新しい戦略設計への道を開いた。
マルチタスク学習(MTL)は、従来の伝達学習手法と比較して、タスク間の共通性を利用して効率を向上させる。
複数のタスクを共同で学習することで、エネルギーフットプリントの大幅な削減が可能になる。
本稿では,MAML(Model-Agnostic Meta-Learning)パラダイムによって駆動され,分散無線ネットワークに実装されるMTLプロセスのエネルギーコストについて,初めて考察する。
論文は、自律エージェントが異なるが関連するタスクを学習する、クラスタ化されたマルチタスクネットワークの設定をターゲットにしている。
MTLプロセスは、新しいタスクの学習に迅速に適応できるメタモデルの最適化と、学習したメタモデルをエージェントに転送し、特定のタスクに合わせて調整するタスク固有のモデル適応ステージの2段階で行われる。
本研究は, ロボット環境におけるマルチタスク強化学習(RL)の設定を考慮し, MTLエネルギーバランスに影響を与える主な要因を分析する。
その結果,MAML法は誘導伝達を伴わない従来の手法に比べて,少なくとも2倍のエネルギー請求を削減できることがわかった。
さらに, 無線ネットワークにおける最適エネルギーバランスは, アップリンク/ダウンリンクおよびサイドリンク通信効率に依存することを示した。
関連論文リスト
- Meta-Sparsity: Learning Optimal Sparse Structures in Multi-task Networks through Meta-learning [4.462334751640166]
Meta-sparsityは、ディープニューラルネットワーク(DNN)がマルチタスク学習環境で最適なスパース共有構造を生成することを可能にする、モデルのスパーシティを学習するためのフレームワークである。
Model Agnostic Meta-Learning (MAML)に触発され、マルチタスクシナリオにおける共有パラメータと最適なスパースパラメータの学習に重点を置いている。
メタスパーシティーの有効性は、2つのデータセットに対する広範な実験によって厳格に評価されている。
論文 参考訳(メタデータ) (2025-01-21T13:25:32Z) - Transforming Vision Transformer: Towards Efficient Multi-Task Asynchronous Learning [59.001091197106085]
Vision TransformerのためのMulti-Task Learning (MTL)は、複数のタスクを同時に処理することでモデル能力を向上させることを目的としている。
最近の研究は、Mixture-of-Experts(MoE)構造の設計とローランド適応(LoRA)によるマルチタスク学習の効率化に重点を置いている。
本稿では,事前学習した視覚変換器を効率的なマルチタスク学習器に変換することで,EMTAL(Efficient Multi-Task Learning)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-12T17:41:23Z) - R-MTLLMF: Resilient Multi-Task Large Language Model Fusion at the Wireless Edge [78.26352952957909]
マルチタスク大言語モデル(MTLLM)は、ユーザが複数のタスクを効率的に処理するための特殊なモデルを要求する無線エッジにおける多くのアプリケーションにとって重要である。
タスクベクトルによるモデル融合の概念は、MDLLMを生成するための微調整パラメータを組み合わせるための効率的なアプローチとして登場した。
本稿では,最悪の逆攻撃を前提として,エッジユーザがタスクベクトルを介して協調的にMTLMを作成できる問題について検討する。
論文 参考訳(メタデータ) (2024-11-27T10:57:06Z) - Dynamic Transformer Architecture for Continual Learning of Multimodal
Tasks [27.59758964060561]
トランスフォーマーニューラルネットワークは、さまざまなデータモダリティの幅広いアプリケーションにおいて、以前のアーキテクチャを置き換える傾向にある。
連続学習(CL)は、自律学習エージェントに順次到着するタスク間で知識の伝達を容易にすることで、ソリューションとして現れる。
本稿では,視覚と言語の両方に関わる学習タスクに着目したトランスフォーマーベースのCLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:03:30Z) - M$^3$ViT: Mixture-of-Experts Vision Transformer for Efficient Multi-task
Learning with Model-Accelerator Co-design [95.41238363769892]
マルチタスク学習(MTL)は、複数の学習タスクを単一のモデルにカプセル化し、それらのタスクを共同でよりよく学習できるようにする。
現在のMTLレギュレータは、1つのタスクだけを実行するためにさえ、ほぼすべてのモデルを起動する必要がある。
効率的なオンデバイスMTLを実現するためのモデル-アクセラレータ共設計フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-26T15:40:24Z) - Attentive Task Interaction Network for Multi-Task Learning [4.1372815372396525]
ATI-Netは、各タスクに潜伏する特徴の知識蒸留を採用し、次に特徴マップを組み合わせて、デコーダに改善されたコンテキスト情報を提供する。
注目に基づくマルチタスクネットワークに知識蒸留を導入する新しいアプローチは,技術MTLベースラインの状態を上回ります。
論文 参考訳(メタデータ) (2022-01-25T22:03:20Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。