論文の概要: Task Aware Modulation using Representation Learning: An Approach for Few
Shot Learning in Heterogeneous Systems
- arxiv url: http://arxiv.org/abs/2310.04727v1
- Date: Sat, 7 Oct 2023 07:55:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 16:08:30.444558
- Title: Task Aware Modulation using Representation Learning: An Approach for Few
Shot Learning in Heterogeneous Systems
- Title(参考訳): 表現学習を用いたタスク認識変調:不均一系におけるショット学習のアプローチ
- Authors: Arvind Renganathan, Rahul Ghosh, Ankush Khandelwal and Vipin Kumar
- Abstract要約: TAM-RLは、異種システムの数ショット設定でパーソナライズされた予測を強化するフレームワークである。
我々は,TAM-RLがMAMLやマルチモーダルMAMLといった既存のベースラインアプローチを大幅に上回ることを示す。
TAM-RLは,異なるタスクに対して異なる表現を学習することが可能な場合において,予測性能を著しく向上することを示す。
- 参考スコア(独自算出の注目度): 16.524898421921108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a Task-aware modulation using Representation Learning (TAM-RL)
framework that enhances personalized predictions in few-shot settings for
heterogeneous systems when individual task characteristics are not known.
TAM-RL extracts embeddings representing the actual inherent characteristics of
these entities and uses these characteristics to personalize the predictions
for each entity/task. Using real-world hydrological and flux tower benchmark
data sets, we show that TAM-RL can significantly outperform existing baseline
approaches such as MAML and multi-modal MAML (MMAML) while being much faster
and simpler to train due to less complexity. Specifically, TAM-RL eliminates
the need for sensitive hyper-parameters like inner loop steps and inner loop
learning rate, which are crucial for model convergence in MAML, MMAML. We
further present an empirical evaluation via synthetic data to explore the
impact of heterogeneity amongst the entities on the relative performance of
MAML, MMAML, and TAM-RL. We show that TAM-RL significantly improves predictive
performance for cases where it is possible to learn distinct representations
for different tasks.
- Abstract(参考訳): 本稿では,タスク特性が不明な場合,不均一なシステムに対する数ショット設定におけるパーソナライズされた予測を向上するRepresentation Learning (TAM-RL) フレームワークを提案する。
TAM-RLは、これらのエンティティの実際の固有の特性を表す埋め込みを抽出し、これらの特徴を使用して各エンティティ/タスクの予測をパーソナライズする。
実世界の水文・フラックスタワーベンチマークデータセットを用いて,TAM-RLは,MAMLやマルチモーダルMAML(MMAML)といった既存のベースラインアプローチを著しく上回り,複雑度が低いため,より高速で訓練が容易であることを示す。
特に、TAM-RLは、MAML、MMAMLにおけるモデル収束に不可欠であるインナーループステップやインナーループ学習率のような敏感なハイパーパラメータを必要としない。
さらに,MAML,MMAML,TAM-RLの相対的性能に及ぼすエンティティ間の不均一性の影響を調べるために,合成データを用いた経験的評価を行った。
TAM-RLは,異なるタスクに対して異なる表現を学習可能な場合の予測性能を著しく向上することを示す。
関連論文リスト
- Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Data-Efficient Task Generalization via Probabilistic Model-based Meta
Reinforcement Learning [58.575939354953526]
PACOH-RLはメタ強化学習(Meta-RL)アルゴリズムである。
既存のMeta-RLメソッドは豊富なメタ学習データを必要とし、ロボット工学などの設定で適用性を制限する。
実験の結果,PACOH-RLはモデルベースRLおよびモデルベースMeta-RLベースラインよりも高い性能を示し,新しい動的条件に適応することがわかった。
論文 参考訳(メタデータ) (2023-11-13T18:51:57Z) - Learning to Modulate pre-trained Models in RL [22.812215561012874]
訓練済みモデルの微調整は、しばしば破滅的な忘れ込みに悩まされる。
本研究は、ほとんどの微調整アプローチにおいて、事前学習タスクのパフォーマンスが著しく低下していることを示す。
凍結事前学習モデルの情報フローを変調することにより,学習スキルの劣化を回避する新しい手法L2Mを提案する。
論文 参考訳(メタデータ) (2023-06-26T17:53:05Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Asynchronous Multi-Model Dynamic Federated Learning over Wireless
Networks: Theory, Modeling, and Optimization [20.741776617129208]
分散機械学習(ML)の鍵となる技術として、フェデレートラーニング(FL)が登場した。
まず、システムパラメータが学習性能に与える影響を捉えるために、長方形のスケジューリングステップと関数を定式化する。
我々の分析は、デバイストレーニング変数と非同期スケジューリング決定の協調的影響に光を当てている。
論文 参考訳(メタデータ) (2023-05-22T21:39:38Z) - Multi-Augmentation for Efficient Visual Representation Learning for
Self-supervised Pre-training [1.3733988835863333]
本稿では、パイプライン全体を構築するための様々な拡張ポリシーを網羅的に検索する、自己改善学習のためのマルチ強化(MA-SSRL)を提案する。
MA-SSRLは不変の特徴表現をうまく学習し、自己教師付き事前学習のための効率的で効果的で適応可能なデータ拡張パイプラインを提供する。
論文 参考訳(メタデータ) (2022-05-24T04:18:39Z) - An Optimization-Based Meta-Learning Model for MRI Reconstruction with
Diverse Dataset [4.9259403018534496]
メタラーニングフレームワークを用いた一般化可能なMRI再構成モデルを構築した。
提案するネットワークは,学習者適応モデルを用いて正規化関数を学習する。
メタトレーニング後および半減期における未確認課題の即時訓練の結果を検証した。
論文 参考訳(メタデータ) (2021-10-02T03:21:52Z) - Meta-learning framework with applications to zero-shot time-series
forecasting [82.61728230984099]
この研究は幅広いメタラーニングフレームワークを使って肯定的な証拠を提供する。
残余接続はメタラーニング適応機構として機能する。
我々は、ソースTSデータセット上でニューラルネットワークをトレーニングし、異なるターゲットTSデータセット上で再トレーニングすることなくデプロイできることを示します。
論文 参考訳(メタデータ) (2020-02-07T16:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。