論文の概要: Cascaded Transfer: Learning Many Tasks under Budget Constraints
- arxiv url: http://arxiv.org/abs/2601.21513v1
- Date: Thu, 29 Jan 2026 10:28:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.734179
- Title: Cascaded Transfer: Learning Many Tasks under Budget Constraints
- Title(参考訳): カスケード転送:予算制約下で多くのタスクを学習する
- Authors: Eloi Campagne, Yvenn Amara-Ouali, Yannig Goude, Mathilde Mougeot, Argyris Kalogeratos,
- Abstract要約: many-Task Learningは、多数の関連するタスクを学習する必要がある設定を指し、タスク間の正確な関係は分かっていない。
情報カスケードは、与えられた予算制約を尊重しつつ、同一クラスの個々のモデルによって学習されるタスクを通して階層的に行われる。
- 参考スコア(独自算出の注目度): 2.352067921771369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many-Task Learning refers to the setting where a large number of related tasks need to be learned, the exact relationships between tasks are not known. We introduce the Cascaded Transfer Learning, a novel many-task transfer learning paradigm where information (e.g. model parameters) cascades hierarchically through tasks that are learned by individual models of the same class, while respecting given budget constraints. The cascade is organized as a rooted tree that specifies the order in which tasks are learned and refined. We design a cascaded transfer mechanism deployed over a minimum spanning tree structure that connects the tasks according to a suitable distance measure, and allocates the available training budget along its branches. Experiments on synthetic and real many-task settings show that the resulting method enables more accurate and cost effective adaptation across large task collections compared to alternative approaches.
- Abstract(参考訳): many-Task Learningは、多数の関連するタスクを学習する必要がある設定を指し、タスク間の正確な関係は分かっていない。
これは、情報(例えばモデルパラメータ)が与えられた予算制約を尊重しつつ、同じクラスの個々のモデルによって学習されるタスクを通して階層的にカスケードする、新しい多タスクトランスファー学習パラダイムである。
カスケードは、タスクの学習と洗練の順序を指定するルートツリーとして構成されている。
本研究では,最小限の幅木構造上に配置されたカスケード転送機構を設計し,タスクを適切な距離尺度に従って接続し,利用可能なトレーニング予算を枝に沿って割り当てる。
合成および実マルチタスク設定の実験により,提案手法は大規模タスクコレクションに対して,より正確かつ費用対効果の高い適応を可能にすることを示した。
関連論文リスト
- A Tensor Low-Rank Approximation for Value Functions in Multi-Task Reinforcement Learning [10.359616364592073]
物理環境下でのトレーニングが可能な強化学習システムを探るため,マルチタスクアプローチについて検討した。
低ランク構造は類似性の概念を強制するが、どのタスクが類似しているかを明確に規定する必要はない。
マルチタスク学習における低ランクテンソルアプローチの有効性を2つの数値実験で実証した。
論文 参考訳(メタデータ) (2025-01-17T20:07:11Z) - Transfer Learning for Structured Pruning under Limited Task Data [15.946734013984184]
本稿では,構造化プルーニングとトランスファーラーニングを組み合わせることで,タスク固有のデータの必要性を減らすフレームワークを提案する。
我々は,強いベースライン上での一般化を改良し,刈り取られたモデルが得られることを実証した。
論文 参考訳(メタデータ) (2023-11-10T20:23:35Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners [67.5865966762559]
本研究では,Mixture-of-Experts (MoE) がマルチタスク学習を改善するかを検討した。
タスク認識ゲーティング関数を考案し、異なるタスクから専門の専門家にサンプルをルーティングする。
これにより、多数のパラメータを持つ疎活性化マルチタスクモデルが得られるが、高密度モデルの計算コストは同じである。
論文 参考訳(メタデータ) (2022-04-16T00:56:12Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Multi-Task Learning with Sequence-Conditioned Transporter Networks [67.57293592529517]
シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
論文 参考訳(メタデータ) (2021-09-15T21:19:11Z) - Learning to Branch for Multi-Task Learning [12.49373126819798]
ネットワーク内の共有や分岐の場所を学習するマルチタスク学習アルゴリズムを提案する。
本稿では,木分岐操作をガムベル・ソフトマックスサンプリング手法として用いる新しい木構造設計空間を提案する。
論文 参考訳(メタデータ) (2020-06-02T19:23:21Z) - Relatedness Measures to Aid the Transfer of Building Blocks among
Multiple Tasks [3.0538120180981294]
マルチタスク学習(Multitask Learning)は、複数のタスクを並列に処理し、それらの知識を伝達する学習パラダイムである。
XOFは,木をベースとしたプログラムを用いて,ビルディングブロック (metafeatures) をエンコードする学習システムである。
我々は、XOF間の特徴伝達を動的に適応できるmXOFと呼ばれる多重XOFシステムを提案する。
論文 参考訳(メタデータ) (2020-05-08T10:26:59Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z) - Hierarchical Reinforcement Learning as a Model of Human Task
Interleaving [60.95424607008241]
我々は、強化学習によって駆動される監督制御の階層モデルを開発する。
このモデルは、タスクインターリービングの既知の経験的効果を再現する。
その結果、階層的RLがタスクインターリービングのもっともらしいモデルとして支持された。
論文 参考訳(メタデータ) (2020-01-04T17:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。