論文の概要: Beyond the Known: Enhancing Open Set Domain Adaptation with Unknown Exploration
- arxiv url: http://arxiv.org/abs/2412.18105v1
- Date: Tue, 24 Dec 2024 02:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:55:08.443724
- Title: Beyond the Known: Enhancing Open Set Domain Adaptation with Unknown Exploration
- Title(参考訳): Beyond the Known: 未知の探索によるオープンセットドメイン適応の強化
- Authors: Lucas Fernando Alvarenga e Silva, Samuel Felipe dos Santos, Nicu Sebe, Jurandy Almeida,
- Abstract要約: 信頼度の高い未知のインスタンスの集合を抽出することでOSDA技術を改善するための新しい手法を提案する。
我々は、未知のカテゴリの精度を高めながら、他の最先端手法と類似したHスコアを達成することができた。
- 参考スコア(独自算出の注目度): 40.2428948628001
- License:
- Abstract: Convolutional neural networks (CNNs) can learn directly from raw data, resulting in exceptional performance across various research areas. However, factors present in non-controllable environments such as unlabeled datasets with varying levels of domain and category shift can reduce model accuracy. The Open Set Domain Adaptation (OSDA) is a challenging problem that arises when both of these issues occur together. Existing OSDA approaches in literature only align known classes or use supervised training to learn unknown classes as a single new category. In this work, we introduce a new approach to improve OSDA techniques by extracting a set of high-confidence unknown instances and using it as a hard constraint to tighten the classification boundaries. Specifically, we use a new loss constraint that is evaluated in three different ways: (1) using pristine negative instances directly; (2) using data augmentation techniques to create randomly transformed negatives; and (3) with generated synthetic negatives containing adversarial features. We analyze different strategies to improve the discriminator and the training of the Generative Adversarial Network (GAN) used to generate synthetic negatives. We conducted extensive experiments and analysis on OVANet using three widely-used public benchmarks, the Office-31, Office-Home, and VisDA datasets. We were able to achieve similar H-score to other state-of-the-art methods, while increasing the accuracy on unknown categories.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、生データから直接学習することができ、様々な研究領域で例外的なパフォーマンスをもたらす。
しかし、ドメインレベルやカテゴリシフトの異なるラベル付きデータセットのような制御不能な環境に存在する要因は、モデルの精度を低下させる可能性がある。
Open Set Domain Adaptation (OSDA)は、これら2つの問題が共に発生すると生じる、困難な問題である。
文献における既存のOSDAアプローチは、未知のクラスを1つの新しいカテゴリとして学習するために、既知のクラスを調整するか、教師付きトレーニングを使用するのみである。
そこで本研究では,OSDA手法を高信頼な未知のインスタンスの集合を抽出し,分類境界を厳格化するための厳密な制約として利用する手法を提案する。
具体的には,(1)プリスタン負のインスタンスを直接使用すること,(2)データ拡張技術を用いてランダムに変換された負を生成すること,(3)敵対的な特徴を含む生成された合成負の3つの異なる方法で評価される新しい損失制約を用いる。
我々は,識別器の改良と,合成陰性を生成するために使用されるGAN(Generative Adversarial Network)の訓練について分析する。
我々は,Office-31,Office-Home,VisDAの3つの公開ベンチマークを用いて,OVANetの広範な実験と分析を行った。
我々は、未知のカテゴリの精度を高めながら、他の最先端手法と類似したHスコアを達成することができた。
関連論文リスト
- MLNet: Mutual Learning Network with Neighborhood Invariance for
Universal Domain Adaptation [70.62860473259444]
ユニバーサルドメイン適応(UniDA)は実用的だが難しい問題である。
既存のUniDAメソッドは、ターゲットドメイン内のドメイン内バリエーションを見落としている問題に悩まされる可能性がある。
そこで我々は,UniDA の近傍不変性を考慮した新しい相互学習ネットワーク (MLNet) を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:34Z) - Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - Tightening Classification Boundaries in Open Set Domain Adaptation
through Unknown Exploitation [45.74830585715129]
畳み込みニューラルネットワーク(CNN)は多くの研究領域に革命的な進歩をもたらした。
しかし、これらの手法が制御不能な環境に適用されると、多くの異なる要因がモデルの性能を劣化させる可能性がある。
未知のインスタンスの高信頼度集合を抽出することでOSDAアプローチを改善する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-09-16T11:33:40Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Interpolation-based Contrastive Learning for Few-Label Semi-Supervised
Learning [43.51182049644767]
半教師付き学習(SSL)は,ラベルが限定された強力なモデルを構築する上で,有効な手法であることが長年証明されてきた。
摂動サンプルを元のものと類似した予測を強制する正規化に基づく手法が注目されている。
本稿では,学習ネットワークの埋め込みを誘導し,サンプル間の線形変化を誘導する新たな対照的な損失を提案する。
論文 参考訳(メタデータ) (2022-02-24T06:00:05Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。