論文の概要: Tightening Classification Boundaries in Open Set Domain Adaptation
through Unknown Exploitation
- arxiv url: http://arxiv.org/abs/2309.08964v1
- Date: Sat, 16 Sep 2023 11:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 18:13:10.778690
- Title: Tightening Classification Boundaries in Open Set Domain Adaptation
through Unknown Exploitation
- Title(参考訳): 未知の活用によるオープンセット領域適応における分類境界の強化
- Authors: Lucas Fernando Alvarenga e Silva, Nicu Sebe, Jurandy Almeida
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は多くの研究領域に革命的な進歩をもたらした。
しかし、これらの手法が制御不能な環境に適用されると、多くの異なる要因がモデルの性能を劣化させる可能性がある。
未知のインスタンスの高信頼度集合を抽出することでOSDAアプローチを改善する新しい方法を提案する。
- 参考スコア(独自算出の注目度): 45.74830585715129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) have brought revolutionary advances to
many research areas due to their capacity of learning from raw data. However,
when those methods are applied to non-controllable environments, many different
factors can degrade the model's expected performance, such as unlabeled
datasets with different levels of domain shift and category shift.
Particularly, when both issues occur at the same time, we tackle this
challenging setup as Open Set Domain Adaptation (OSDA) problem. In general,
existing OSDA approaches focus their efforts only on aligning known classes or,
if they already extract possible negative instances, use them as a new category
learned with supervision during the course of training. We propose a novel way
to improve OSDA approaches by extracting a high-confidence set of unknown
instances and using it as a hard constraint to tighten the classification
boundaries of OSDA methods. Especially, we adopt a new loss constraint
evaluated in three different means, (1) directly with the pristine negative
instances; (2) with randomly transformed negatives using data augmentation
techniques; and (3) with synthetically generated negatives containing
adversarial features. We assessed all approaches in an extensive set of
experiments based on OVANet, where we could observe consistent improvements for
two public benchmarks, the Office-31 and Office-Home datasets, yielding
absolute gains of up to 1.3% for both Accuracy and H-Score on Office-31 and
5.8% for Accuracy and 4.7% for H-Score on Office-Home.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、生データから学習する能力のため、多くの研究領域に革命的な進歩をもたらした。
しかし、これらの手法が制御不能な環境に適用された場合、ドメインシフトやカテゴリシフトのレベルが異なるラベル付きデータセットなど、多くの異なる要因がモデルの性能を低下させる可能性がある。
特に、両方の問題が同時に発生した場合、オープンセット・ドメイン・アダプション(osda)問題として、この困難な設定に取り組みます。
一般的に、既存のosdaのアプローチは、既知のクラスを整合させるか、あるいは既に負のインスタンスを抽出している場合は、トレーニング中に監視によって学習された新しいカテゴリとして使用することに集中している。
未知のインスタンスの高信頼集合を抽出し,OSDA手法の分類境界を厳格化するための制約として利用することにより,OSDAアプローチを改善する新しい手法を提案する。
特に,(1)プリスタン陰性事例と直接対応し,(2)データ拡張技術を用いてランダムに変換された負,(3)敵対的特徴を含む合成生成された負の3つの方法で評価された新たな損失制約を採用する。
OVANetに基づく広範な実験ですべてのアプローチを評価し、Office-31とOffice-Homeのデータセットという2つの公開ベンチマークで一貫した改善を観察し、Office-31の精度とH-Scoreの両方で最大1.3%、Office-Homeで5.8%、H-Scoreの4.7%という絶対的なゲインを得た。
関連論文リスト
- Taxonomy Adaptive Cross-Domain Adaptation in Medical Imaging via
Optimization Trajectory Distillation [73.83178465971552]
自動医用画像解析の成功は、大規模かつ専門家による注釈付きトレーニングセットに依存する。
非教師なしドメイン適応(UDA)はラベル付きデータ収集の負担を軽減するための有望なアプローチである。
本稿では,2つの技術的課題に新しい視点から対処する統一的手法である最適化トラジェクトリ蒸留を提案する。
論文 参考訳(メタデータ) (2023-07-27T08:58:05Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Imbalanced Open Set Domain Adaptation via Moving-threshold Estimation
and Gradual Alignment [58.56087979262192]
Open Set Domain Adaptation (OSDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
OSDA法の性能はドメイン内クラス不均衡とドメイン間ラベルシフトで大幅に低下する。
ラベルシフトによって生じる負の効果を軽減するために,オープンセット移動閾値推定とグラデーショナルアライメント(OMEGA)を提案する。
論文 参考訳(メタデータ) (2023-03-08T05:55:02Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Open Set Domain Adaptation By Novel Class Discovery [118.25447367755737]
Open Set Domain Adaptation (OSDA)では、ソースドメインに存在しない暗黙のカテゴリから大量のターゲットサンプルが引き出される。
暗黙のクラスを徐々に発見することによってOSDAを実現しようとする自己教師付きクラス発見アダプタを提案する。
論文 参考訳(メタデータ) (2022-03-07T12:16:46Z) - E-ADDA: Unsupervised Adversarial Domain Adaptation Enhanced by a New
Mahalanobis Distance Loss for Smart Computing [25.510639595356597]
スマートコンピューティングでは、特定のタスクのためのトレーニングサンプルのラベルが常に豊富であるとは限らない。
本稿では,Mahalanobis 距離損失の新たなバリエーションと分布外検出サブルーチンを併用した新しい UDA アルゴリズム TextitE-ADDA を提案する。
音響モードでは、E-ADDAはf1スコアで測定されたいくつかの最先端のUDAアルゴリズムを最大29.8%上回っている。
コンピュータビジョンのモダリティにおいて、評価結果は、人気UDAにおける新しい最先端性能を実現することを示唆している。
論文 参考訳(メタデータ) (2022-01-24T23:20:55Z) - Unsupervised domain adaptation with non-stochastic missing data [0.6608945629704323]
対象領域に欠落するデータが存在する場合の分類問題に対する教師なし領域適応(UDA)について検討する。
命令はドメイン不変の潜在空間で実行され、完全なソースドメインからの間接的な監視を利用する。
データセットの適応、分類、計算を共同で行う利点を示す。
論文 参考訳(メタデータ) (2021-09-16T06:37:07Z) - Partially-Shared Variational Auto-encoders for Unsupervised Domain
Adaptation with Target Shift [11.873435088539459]
本稿では,教師なしドメイン適応(UDA)の目標シフトを考慮した新しいアプローチを提案する。
提案手法は部分共有変分オートエンコーダ (PS-VAE) であり, 特徴分布マッチングの代わりにペアワイズな特徴アライメントを用いる。
PS-VAEは、ラベル関連コンテンツを保存しながら、CycleGANベースのアーキテクチャで各サンプルの変換ドメインを相互変換する。
論文 参考訳(メタデータ) (2020-01-22T06:41:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。