論文の概要: Towards Cross-Domain Continual Learning
- arxiv url: http://arxiv.org/abs/2402.12490v1
- Date: Mon, 19 Feb 2024 19:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 18:24:44.205632
- Title: Towards Cross-Domain Continual Learning
- Title(参考訳): クロスドメイン連続学習に向けて
- Authors: Marcus de Carvalho, Mahardhika Pratama, Jie Zhang, Chua Haoyan, Edward
Yapp
- Abstract要約: CDCL(Cross-Domain Continual Learning)と呼ばれる新しいアプローチを導入する。
提案手法は,コンパクトな畳み込みネットワーク内でのタスク間およびタスク内クロスアテンション機構を組み合わせたものである。
タスク内固有の擬似ラベル付け手法を利用して,ラベル付きサンプルとラベルなしサンプルの両方に対して正確な入力ペアを確保する。
- 参考スコア(独自算出の注目度): 8.22291258264193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning is a process that involves training learning agents to
sequentially master a stream of tasks or classes without revisiting past data.
The challenge lies in leveraging previously acquired knowledge to learn new
tasks efficiently, while avoiding catastrophic forgetting. Existing methods
primarily focus on single domains, restricting their applicability to specific
problems.
In this work, we introduce a novel approach called Cross-Domain Continual
Learning (CDCL) that addresses the limitations of being limited to single
supervised domains. Our method combines inter- and intra-task cross-attention
mechanisms within a compact convolutional network. This integration enables the
model to maintain alignment with features from previous tasks, thereby delaying
the data drift that may occur between tasks, while performing unsupervised
cross-domain (UDA) between related domains. By leveraging an
intra-task-specific pseudo-labeling method, we ensure accurate input pairs for
both labeled and unlabeled samples, enhancing the learning process. To validate
our approach, we conduct extensive experiments on public UDA datasets,
showcasing its positive performance on cross-domain continual learning
challenges. Additionally, our work introduces incremental ideas that contribute
to the advancement of this field.
We make our code and models available to encourage further exploration and
reproduction of our results: \url{https://github.com/Ivsucram/CDCL}
- Abstract(参考訳): 継続的学習は、学習エージェントが過去のデータを再考することなく、タスクやクラスのストリームを順次マスターするように訓練するプロセスである。
この課題は、これまで獲得した知識を活用して新しいタスクを効率的に学習することにある。
既存のメソッドは主に単一のドメインにフォーカスし、特定の問題に適用性を制限する。
本研究では,単一教師付きドメインに制限される制限に対処する,クロスドメイン連続学習(CDCL)という新しい手法を提案する。
提案手法は,コンパクトな畳み込みネットワーク内でのタスク間およびタスク内クロスアテンション機構を組み合わせたものである。
この統合により、モデルが以前のタスクの機能との整合を維持することができ、関連するドメイン間で教師なしのクロスドメイン(uda)を実行しながら、タスク間で発生するデータドリフトを遅らせることができる。
タスク内固有の擬似ラベル法を利用することで、ラベル付きサンプルとラベルなしサンプルの両方の正確な入力ペアを確保し、学習プロセスを強化する。
このアプローチを検証するために、パブリックなudaデータセットに関する広範な実験を行い、ドメイン間連続学習の課題に対するポジティブなパフォーマンスを示しました。
さらに、この分野の発展に寄与するインクリメンタルなアイデアも導入しています。
結果のさらなる探索と再現を促進するために、コードとモデルを利用可能にしています。
関連論文リスト
- Overcoming Domain Drift in Online Continual Learning [24.86094018430407]
オンライン連続学習(OCL)は、機械学習モデルに一連のタスクで新しい知識をオンラインで取得する権限を与える。
OCLは、破滅的な忘れをし、以前のタスクで学んだモデルは、新しいタスクに遭遇したときに実質的に上書きされる、という大きな課題に直面します。
本稿では,古いタスクのドメインを固定し,負の転送効果を低減するための新しいリハーサル戦略であるDrift-Reducing Rehearsal(DRR)を提案する。
論文 参考訳(メタデータ) (2024-05-15T06:57:18Z) - DAWN: Domain-Adaptive Weakly Supervised Nuclei Segmentation via Cross-Task Interactions [17.68742587885609]
現在の弱い制御された核分割アプローチは、2段階の擬似ラベル生成とネットワークトレーニングプロセスに従う。
本稿では,クロスタスクインタラクション戦略を用いたドメイン適応型弱教師付き核セグメンテーションフレームワークを提案する。
提案手法の有効性を検証するため,6つのデータセットに対して広範囲な比較・アブレーション実験を行った。
論文 参考訳(メタデータ) (2024-04-23T12:01:21Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - CDFSL-V: Cross-Domain Few-Shot Learning for Videos [58.37446811360741]
ビデオのアクション認識は、いくつかのラベル付き例でのみ、新しいカテゴリを認識するための効果的なアプローチである。
既存のビデオアクション認識の方法は、同じドメインからの大きなラベル付きデータセットに依存している。
本稿では,自己教師付き学習とカリキュラム学習を活用した,クロスドメインな数ショットビデオ行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T19:44:27Z) - Learning with Style: Continual Semantic Segmentation Across Tasks and
Domains [25.137859989323537]
ドメイン適応とクラス増分学習はドメインとタスクの変数を別々に扱います。
我々は、入力空間とラベル空間のセマンティックシフトを考慮して、問題の両面に一緒に取り組みます。
提案手法は,タスクシフトとドメインシフトの両方で連続的なセマンティックセグメンテーションを扱うのに不十分であることを示す既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-13T13:24:34Z) - Feature Representation Learning for Unsupervised Cross-domain Image
Retrieval [73.3152060987961]
現在の教師付きクロスドメイン画像検索法は優れた性能が得られる。
データ収集とラベリングのコストは、実際のアプリケーションにおける実践的なデプロイにおいて、難易度の高い障壁を課します。
本稿では,クラス意味認識機能抽出を支援するために,クラスタ単位のコントラスト学習機構を提案する。
論文 参考訳(メタデータ) (2022-07-20T07:52:14Z) - Interval Bound Interpolation for Few-shot Learning with Few Tasks [15.85259386116784]
少ないショット学習は、さまざまなタスクのトレーニングから得られた知識を、限られたラベル付きデータで見つからないタスクに転送することを目的としている。
そこで本研究では,頑健な学習文献から数ショット学習まで,インターバルバウンダリの概念を紹介した。
次に、利用可能なタスクと各インターバル境界を補間することにより、トレーニングのための新しいタスクを人工的に形成する。
論文 参考訳(メタデータ) (2022-04-07T15:29:27Z) - Self-Taught Cross-Domain Few-Shot Learning with Weakly Supervised Object
Localization and Task-Decomposition [84.24343796075316]
本稿では,クロスドメインなFew-Shot学習のためのタスク拡張分解フレームワークを提案する。
提案した自己学習(ST)アプローチは,タスク指向距離空間を構築することで,非目標誘導の問題を軽減する。
CUB、カーズ、Places、Planae、CropDieases、EuroSAT、ISIC、ChestXの8つのドメインを含むクロスドメイン環境で実験を行う。
論文 参考訳(メタデータ) (2021-09-03T04:23:07Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Data-efficient Weakly-supervised Learning for On-line Object Detection
under Domain Shift in Robotics [24.878465999976594]
文献では、Deep Convolutional Neural Networks (DCNNs)に基づく多数のオブジェクト検出方法が提案されている。
これらの手法はロボティクスに重要な制限がある:オフラインデータのみに学習するとバイアスが発生し、新しいタスクへの適応を防ぐことができる。
本研究では,弱い教師付き学習がこれらの問題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2020-12-28T16:36:11Z) - Learning Task-oriented Disentangled Representations for Unsupervised
Domain Adaptation [165.61511788237485]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインとラベルなしターゲットドメインの間のドメインシフト問題に対処することを目的としている。
UDAのための動的タスク指向の非絡合ネットワーク(DTDN)を提案し,非絡合表現をエンドツーエンドで学習する。
論文 参考訳(メタデータ) (2020-07-27T01:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。