論文の概要: DICS: Find Domain-Invariant and Class-Specific Features for Out-of-Distribution Generalization
- arxiv url: http://arxiv.org/abs/2409.08557v1
- Date: Fri, 13 Sep 2024 06:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 17:38:30.956425
- Title: DICS: Find Domain-Invariant and Class-Specific Features for Out-of-Distribution Generalization
- Title(参考訳): DICS:out-of-distribution Generalizationのためのドメイン不変およびclass-specific特徴を見つける
- Authors: Qiaowei Miao, Yawei Luo, Yi Yang,
- Abstract要約: ビジョンタスクでは、ドメイン関連機能とクラス共有機能の両方が、一般化を妨げる共同創設者として機能する。
ドメイン不変およびクラス特化特徴を抽出するDICSモデルを提案する。
DICSは、ターゲットドメインの各クラスの主要な特徴を効果的に識別する。
- 参考スコア(独自算出の注目度): 26.382349137191547
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep neural networks have made remarkable progress in various vision tasks, their performance typically deteriorates when tested in out-of-distribution (OOD) scenarios. Many OOD methods focus on extracting domain-invariant features but neglect whether these features are unique to each class. Even if some features are domain-invariant, they cannot serve as key classification criteria if shared across different classes. In OOD tasks, both domain-related and class-shared features act as confounders that hinder generalization. In this paper, we propose a DICS model to extract Domain-Invariant and Class-Specific features, including Domain Invariance Testing (DIT) and Class Specificity Testing (CST), which mitigate the effects of spurious correlations introduced by confounders. DIT learns domain-related features of each source domain and removes them from inputs to isolate domain-invariant class-related features. DIT ensures domain invariance by aligning same-class features across different domains. Then, CST calculates soft labels for those features by comparing them with features learned in previous steps. We optimize the cross-entropy between the soft labels and their true labels, which enhances same-class similarity and different-class distinctiveness, thereby reinforcing class specificity. Extensive experiments on widely-used benchmarks demonstrate the effectiveness of our proposed algorithm. Additional visualizations further demonstrate that DICS effectively identifies the key features of each class in target domains.
- Abstract(参考訳): ディープニューラルネットワークは様々な視覚タスクにおいて顕著な進歩を遂げてきたが、その性能は通常、アウト・オブ・ディストリビューション(OOD)シナリオでのテストで低下する。
多くのOODメソッドは、ドメイン不変の特徴の抽出に重点を置いているが、これらの特徴が各クラスに固有のものであるかどうかを無視している。
たとえいくつかの機能がドメイン不変であっても、異なるクラス間で共有されている場合、重要な分類基準として機能することはできない。
OODタスクでは、ドメイン関連機能とクラス共有機能の両方が、一般化を妨げる共同創設者として機能する。
本稿では,DIT(Domain Invariant Testing)やクラス特異性テスト(Class Specificity Testing, CST)など,ドメイン不変性およびクラス特異性の特徴を抽出するDICSモデルを提案する。
DITは、各ソースドメインのドメイン関連機能を学び、それらを入力から取り除き、ドメイン不変のクラス関連機能を分離する。
DITは、異なるドメイン間で同じクラスの機能を整列することで、ドメインの不変性を保証します。
次に、CSTは、これらの特徴を以前のステップで学習した特徴と比較することにより、それらの特徴のソフトラベルを計算する。
ソフトラベルとそれらの真のラベルの相互エントロピーを最適化し、同クラスの類似性と異なるクラスの特異性を高め、クラス特異性を補強する。
大規模なベンチマーク実験により,提案アルゴリズムの有効性が示された。
さらなる視覚化により、DICSはターゲットドメインの各クラスの重要な特徴を効果的に識別する。
関連論文リスト
- EIANet: A Novel Domain Adaptation Approach to Maximize Class Distinction with Neural Collapse Principles [15.19374752514876]
ソースフリードメイン適応(SFDA)は、ラベル付きソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
SFDAにおける大きな課題は、ターゲットドメインの正確な分類情報を導き出すことである。
クラスプロトタイプを分離するための新しいETF-Informed Attention Network(EIANet)を導入する。
論文 参考訳(メタデータ) (2024-07-23T05:31:05Z) - Distributional Shift Adaptation using Domain-Specific Features [41.91388601229745]
オープンワールドのシナリオでは、ビッグデータのストリーミングはOut-Of-Distribution(OOD)になる。
特徴が不変か否かにかかわらず、一般の相関に依拠する単純かつ効果的な手法を提案する。
提案手法では,OODベースモデルによって同定された最も確実なサンプルを用いて,対象領域に効果的に適応する新しいモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-09T04:16:21Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - Domain-invariant Feature Exploration for Domain Generalization [35.99082628524934]
ドメイン不変の機能は、内部と相互の双方から派生すべきである、と我々は主張する。
ドメイン不変な特徴展開のためのDIFEXを提案する。
時系列とビジュアルベンチマークの両方の実験は、提案したDIFEXが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2022-07-25T09:55:55Z) - Domain Attention Consistency for Multi-Source Domain Adaptation [100.25573559447551]
主な設計は、伝達可能な特徴(属性)を識別することを目的とした機能チャネルアテンションモジュールである。
3つのMSDAベンチマーク実験により、DAC-Netは、それらすべてに対して、新たなパフォーマンスを実現することが示された。
論文 参考訳(メタデータ) (2021-11-06T15:56:53Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Adversarial Dual Distinct Classifiers for Unsupervised Domain Adaptation [67.83872616307008]
Unversarial Domain adaptation (UDA)は、異なる分散されたラベル付きソースドメインから学習モデルを構築することで、ラベルなしのターゲットサンプルを認識しようとする。
本稿では,タスク固有のカテゴリ境界に一致するソースとターゲット領域のデータ分布を同時に整合させる新しいアドリラルデュアル・ディスタンス・ネットワーク(AD$2$CN)を提案する。
具体的には、ドメイン不変の特徴発生器を利用して、識別的クロスドメインアライメントのガイダンスにより、ソースとターゲットデータを潜在共通空間に埋め込む。
論文 参考訳(メタデータ) (2020-08-27T01:29:10Z) - Domain Generalization via Optimal Transport with Metric Similarity
Learning [16.54463315552112]
データやラベルが利用できない未知のドメインに知識を一般化することは、機械学習モデルにとって不可欠である。
我々は、複数のソースドメインから学習し、未知の統計を持つ対象ドメインに一般化するために、ドメインの一般化問題に取り組む。
論文 参考訳(メタデータ) (2020-07-21T02:56:05Z) - Self-Challenging Improves Cross-Domain Generalization [81.99554996975372]
畳み込みニューラルネットワーク(CNN)は、ラベルと相関する支配的特徴を活性化することにより、画像分類を行う。
ドメイン外データに対するCNNの一般化を著しく改善する簡単なトレーニングである自己整合表現(RSC)を導入する。
RSCはトレーニングデータ上で活性化される主要な機能に対して反復的に挑戦し、ラベルと相関する残りの機能を有効にするようネットワークに強制する。
論文 参考訳(メタデータ) (2020-07-05T21:42:26Z) - Learning Class Regularized Features for Action Recognition [68.90994813947405]
本稿では,階層活性化のクラスベース正規化を行うクラス正規化手法を提案する。
動作認識に最先端CNNアーキテクチャのクラス正規化ブロックを用いることで,Kineetics,UCF-101,HMDB-51データセットにおいて,それぞれ1.8%,1.2%,1.4%の体系的改善が得られた。
論文 参考訳(メタデータ) (2020-02-07T07:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。