論文の概要: Advancing Open-Set Domain Generalization Using Evidential Bi-Level
Hardest Domain Scheduler
- arxiv url: http://arxiv.org/abs/2409.17555v1
- Date: Thu, 26 Sep 2024 05:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 22:56:36.431792
- Title: Advancing Open-Set Domain Generalization Using Evidential Bi-Level
Hardest Domain Scheduler
- Title(参考訳): Evidential Bi-Level を用いたオープンセット領域の一般化の促進
ハードなドメインスケジューリング
- Authors: Kunyu Peng, Di Wen, Kailun Yang, Ao Luo, Yufan Chen, Jia Fu, M. Saquib
Sarfraz, Alina Roitberg, Rainer Stiefelhagen
- Abstract要約: Open-Set Domain Generalizationでは、新しいデータ外観(ドメイン)とオープンセット条件の両方でモデルが公開される。
適応型ドメインスケジューラを実現するために,Evidential Bi-Level Hardest Domain Scheduler (EBiL-HaDS)を提案する。
- 参考スコア(独自算出の注目度): 47.43389742100956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Open-Set Domain Generalization (OSDG), the model is exposed to both new
variations of data appearance (domains) and open-set conditions, where both
known and novel categories are present at test time. The challenges of this
task arise from the dual need to generalize across diverse domains and
accurately quantify category novelty, which is critical for applications in
dynamic environments. Recently, meta-learning techniques have demonstrated
superior results in OSDG, effectively orchestrating the meta-train and -test
tasks by employing varied random categories and predefined domain partition
strategies. These approaches prioritize a well-designed training schedule over
traditional methods that focus primarily on data augmentation and the
enhancement of discriminative feature learning. The prevailing meta-learning
models in OSDG typically utilize a predefined sequential domain scheduler to
structure data partitions. However, a crucial aspect that remains inadequately
explored is the influence brought by strategies of domain schedulers during
training. In this paper, we observe that an adaptive domain scheduler benefits
more in OSDG compared with prefixed sequential and random domain schedulers. We
propose the Evidential Bi-Level Hardest Domain Scheduler (EBiL-HaDS) to achieve
an adaptive domain scheduler. This method strategically sequences domains by
assessing their reliabilities in utilizing a follower network, trained with
confidence scores learned in an evidential manner, regularized by max rebiasing
discrepancy, and optimized in a bi-level manner. The results show that our
method substantially improves OSDG performance and achieves more discriminative
embeddings for both the seen and unseen categories. The source code will be
available at https://github.com/KPeng9510/EBiL-HaDS.
- Abstract(参考訳): Open-Set Domain Generalization (OSDG)では、このモデルは、テスト時に既知のカテゴリと新しいカテゴリの両方が存在する、新しいデータ外観(ドメイン)とオープンセット条件の両方に露出する。
このタスクの課題は、様々な領域をまたいで一般化し、動的環境における応用に欠かせないカテゴリの新規性を正確に定量化することによる。
近年、メタ学習技術はOSDGにおいて優れた結果を示し、様々なランダムカテゴリと事前定義されたドメイン分割戦略を用いて、メタトレインとテストタスクを効果的に編成している。
これらのアプローチは、主にデータ拡張と差別的特徴学習の強化に焦点を当てた従来の手法よりも、よく設計されたトレーニングスケジュールを優先する。
OSDGの一般的なメタラーニングモデルは、データパーティションを構成するために、定義済みのシーケンシャルドメインスケジューラを使用するのが一般的である。
しかし、まだ十分に調査されていない重要な側面は、トレーニング中にドメインスケジューラの戦略によってもたらされた影響である。
本稿では、プレフィックス付きシーケンシャルおよびランダムなドメインスケジューラと比較して、OSDGにおいて適応型ドメインスケジューラの方が有利であることを示す。
適応型ドメインスケジューラを実現するために,Evidential Bi-Level Hardest Domain Scheduler (EBiL-HaDS)を提案する。
本手法は、従者ネットワークを利用する際の信頼度を評価し、明らかな方法で学習した信頼度をトレーニングし、最大偏差で正規化し、二段階的に最適化することで、ドメインを戦略的にシーケンスする。
その結果,本手法はOSDGの性能を著しく向上し,目に見えるカテゴリと目立たないカテゴリの両方に対してより差別的な埋め込みを実現することがわかった。
ソースコードはhttps://github.com/KPeng9510/EBiL-HaDSで入手できる。
関連論文リスト
- Domain-Guided Weight Modulation for Semi-Supervised Domain Generalization [11.392783918495404]
半教師付き領域一般化の課題について検討する。
目的は、ラベル付きデータのごく一部とラベルなしデータの比較的大きな部分だけを使用しながら、ドメイン一般化可能なモデルを学ぶことである。
そこで本研究では,様々なドメインシフトの下で,正確な擬似ラベルの生成を容易にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-04T01:26:23Z) - StableFDG: Style and Attention Based Learning for Federated Domain
Generalization [36.173582743028625]
本稿では,フェデレートされた領域の一般化を実現するためのスタイルと注意に基づく学習戦略を提案する。
スタイルベースの学習により、各クライアントは、ローカルデータセット内の元のソースドメインを越えて、新しいスタイルを探索できる。
2つ目のコントリビューションは注目に基づく機能ハイライトで、同じクラスのデータサンプルの特徴の類似性をキャプチャします。
論文 参考訳(メタデータ) (2023-11-01T02:17:01Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Domain Adaptation with Adversarial Training on Penultimate Activations [82.9977759320565]
教師なし領域適応(Unsupervised Domain Adaptation, UDA)の重要な目的は、ラベルなし対象データに対するモデル予測の信頼性を高めることである。
我々は,この戦略が,入力画像や中間特徴に対する敵対的訓練よりも予測信頼性を高める目的と,より効率的で相関性が高いことを示す。
論文 参考訳(メタデータ) (2022-08-26T19:50:46Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z) - f-Domain-Adversarial Learning: Theory and Algorithms [82.97698406515667]
教師なしのドメイン適応は、トレーニング中、ターゲットドメイン内のラベルなしデータにアクセス可能な、多くの機械学習アプリケーションで使用されている。
領域適応のための新しい一般化法を導出し、f-発散体の変分的特徴に基づく分布間の相違性の新しい尺度を利用する。
論文 参考訳(メタデータ) (2021-06-21T18:21:09Z) - Robust Domain-Free Domain Generalization with Class-aware Alignment [4.442096198968069]
ドメインフリードメイン一般化(DFDG)は、目に見えないテストドメインでより良い一般化性能を実現するモデル非依存の方法である。
DFDGは新しい戦略を用いてドメイン不変なクラス差別的特徴を学習する。
時系列センサと画像分類公開データセットの両方で競合性能を得る。
論文 参考訳(メタデータ) (2021-02-17T17:46:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。