論文の概要: Meta Learning on a Sequence of Imbalanced Domains with Difficulty
Awareness
- arxiv url: http://arxiv.org/abs/2109.14120v1
- Date: Wed, 29 Sep 2021 00:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 00:29:47.205989
- Title: Meta Learning on a Sequence of Imbalanced Domains with Difficulty
Awareness
- Title(参考訳): 難易度を有する不均衡領域の系列におけるメタ学習
- Authors: Zhenyi Wang, Tiehang Duan, Le Fang, Qiuling Suo and Mingchen Gao
- Abstract要約: 現在のメタ学習アルゴリズムにまたがる典型的な設定は、メタトレーニング中に定常的なタスク分布を仮定する。
タスク分散とドメインラベルが本質的に利用できないような現実的なシナリオを考察する。
本稿では,ドメイン変更検出のためのカーネルベースの手法と,メモリ管理の難易度を考慮した機構を提案する。
- 参考スコア(独自算出の注目度): 6.648670454325191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recognizing new objects by learning from a few labeled examples in an
evolving environment is crucial to obtain excellent generalization ability for
real-world machine learning systems. A typical setting across current meta
learning algorithms assumes a stationary task distribution during meta
training. In this paper, we explore a more practical and challenging setting
where task distribution changes over time with domain shift. Particularly, we
consider realistic scenarios where task distribution is highly imbalanced with
domain labels unavailable in nature. We propose a kernel-based method for
domain change detection and a difficulty-aware memory management mechanism that
jointly considers the imbalanced domain size and domain importance to learn
across domains continuously. Furthermore, we introduce an efficient adaptive
task sampling method during meta training, which significantly reduces task
gradient variance with theoretical guarantees. Finally, we propose a
challenging benchmark with imbalanced domain sequences and varied domain
difficulty. We have performed extensive evaluations on the proposed benchmark,
demonstrating the effectiveness of our method. We made our code publicly
available.
- Abstract(参考訳): 進化する環境下でラベル付きサンプルから学習することで新しいオブジェクトを認識することは、現実世界の機械学習システムにおいて優れた一般化能力を得るために重要である。
現在のメタ学習アルゴリズムを横断する典型的な設定は、メタトレーニング中に定常タスク分布を仮定する。
本稿では,ドメインシフトとともにタスク分布が時間とともに変化する,より実践的で困難な環境について検討する。
特に,タスク分布とドメインラベルが自然界で利用できないような現実的なシナリオを考察する。
本稿では,カーネルベースのドメイン変更検出手法と,ドメイン間の不均衡なサイズとドメインの重要度を同時に考慮したメモリ管理機構を提案する。
さらに,メタトレーニング中に効率的な適応的タスクサンプリング手法を導入し,理論的な保証によりタスク勾配のばらつきを著しく低減する。
最後に、不均衡なドメイン配列と様々なドメイン難易度を持つ挑戦的ベンチマークを提案する。
提案手法の有効性を実証し,提案ベンチマークを広範囲に評価した。
私たちはコードを公開しました。
関連論文リスト
- Meta-TTT: A Meta-learning Minimax Framework For Test-Time Training [5.9631503543049895]
テスト時ドメイン適応は、推論中に制限された未ラベルのターゲットデータに事前訓練されたモデルを適用することを目的とした、困難なタスクである。
本稿では,バッチ正規化レイヤ上でのテスト時間トレーニングを行うためのメタラーニングミニマックスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:16:05Z) - Learning with Style: Continual Semantic Segmentation Across Tasks and
Domains [25.137859989323537]
ドメイン適応とクラス増分学習はドメインとタスクの変数を別々に扱います。
我々は、入力空間とラベル空間のセマンティックシフトを考慮して、問題の両面に一緒に取り組みます。
提案手法は,タスクシフトとドメインシフトの両方で連続的なセマンティックセグメンテーションを扱うのに不十分であることを示す既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-13T13:24:34Z) - Distributionally Adaptive Meta Reinforcement Learning [85.17284589483536]
テスト時間分布シフトの下で適切に振る舞うメタRLアルゴリズムのフレームワークを開発する。
我々の枠組みは、分布のロバスト性に対する適応的なアプローチを中心とし、様々なレベルの分布シフトに対してロバストであるようメタポリスの人口を訓練する。
本研究は, 分散シフト下での後悔を改善するための枠組みを示し, シミュレーションロボティクス問題に対する効果を実証的に示す。
論文 参考訳(メタデータ) (2022-10-06T17:55:09Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Domain Adaptation for Semantic Segmentation via Patch-Wise Contrastive
Learning [62.7588467386166]
ドメイン間で構造的に類似するラベルパッチの機能を調整することで、ドメインギャップを埋めるためにコントラスト学習を利用する。
私たちのアプローチは、常に2つの困難なドメイン適応セグメンテーションタスクにおいて、最先端の非監視および半監督メソッドを上回ります。
論文 参考訳(メタデータ) (2021-04-22T13:39:12Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z) - Continuous Domain Adaptation with Variational Domain-Agnostic Feature
Replay [78.7472257594881]
非定常環境での学習は、機械学習における最大の課題の1つだ。
非定常性はタスクドリフトまたはドメインドリフトによって引き起こされる。
本稿では,3つのコンポーネントから構成されるアプローチである変分ドメインに依存しない特徴リプレイを提案する。
論文 参考訳(メタデータ) (2020-03-09T19:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。