論文の概要: Exploiting Inter-Sample Affinity for Knowability-Aware Universal Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2207.09280v5
- Date: Tue, 22 Aug 2023 15:46:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 21:31:20.841542
- Title: Exploiting Inter-Sample Affinity for Knowability-Aware Universal Domain
Adaptation
- Title(参考訳): 知識度を考慮したユニバーサルドメイン適応のためのサンプル間親和性の拡大
- Authors: Yifan Wang and Lin Zhang and Ran Song and Hongliang Li and Paul L.
Rosin and Wei Zhang
- Abstract要約: ユニバーサルドメイン適応(UniDA)は、共通クラスの知識を、ラベルセットに関する事前の知識なしで、ソースドメインからターゲットドメインに転送することを目的としている。
最近の手法は、通常、既知のサンプルと未知のサンプルを区別するのではなく、ターゲットサンプルをソースクラスの1つに分類することに焦点を当てている。
サンプル間の親和性を生かした新しいUDAフレームワークを提案する。
- 参考スコア(独自算出の注目度): 34.5943374866644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal domain adaptation (UniDA) aims to transfer the knowledge of common
classes from the source domain to the target domain without any prior knowledge
on the label set, which requires distinguishing in the target domain the
unknown samples from the known ones. Recent methods usually focused on
categorizing a target sample into one of the source classes rather than
distinguishing known and unknown samples, which ignores the inter-sample
affinity between known and unknown samples and may lead to suboptimal
performance. Aiming at this issue, we propose a novel UDA framework where such
inter-sample affinity is exploited. Specifically, we introduce a
knowability-based labeling scheme which can be divided into two steps: 1)
Knowability-guided detection of known and unknown samples based on the
intrinsic structure of the neighborhoods of samples, where we leverage the
first singular vectors of the affinity matrices to obtain the knowability of
every target sample. 2) Label refinement based on neighborhood consistency to
relabel the target samples, where we refine the labels of each target sample
based on its neighborhood consistency of predictions. Then, auxiliary losses
based on the two steps are used to reduce the inter-sample affinity between the
unknown and the known target samples. Finally, experiments on four public
datasets demonstrate that our method significantly outperforms existing
state-of-the-art methods.
- Abstract(参考訳): ユニバーサルドメイン適応(unida:universal domain adaptation)は、ソースドメインからターゲットドメインへの共通クラスの知識をラベルセットに関する事前の知識なしに転送することを目的としている。
最近の手法では、既知のサンプルと未知のサンプルを区別するのではなく、対象のサンプルを1つのソースクラスに分類することに重点を置いている。
本稿では,このようなサンプル間の親和性を生かした新しいUDAフレームワークを提案する。
具体的には, 2 つのステップに分類可能なノウナビリティに基づくラベリングスキームを提案する。
1) 親和性行列の1次特異ベクトルを利用して, サンプルの固有構造に基づいて, 未知および未知のサンプルを同定し, 対象標本の可知性を得る。
2) 対象試料をリラベルするために近傍整合性に基づくラベル改良を行い, 予測の近傍一貫性に基づいて各試料のラベルを精錬する。
そして、この2つのステップに基づく補助損失を用いて、未知と既知のターゲットサンプル間のサンプル間親和性を減少させる。
最後に,4つの公開データセットを用いた実験により,本手法が既存の最先端手法を大幅に上回ることを示した。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - High-order Neighborhoods Know More: HyperGraph Learning Meets Source-free Unsupervised Domain Adaptation [34.08681468394247]
Source-free Unsupervised Domain Adaptationは、未学習のソースモデルと未学習のターゲットモデルにのみアクセスすることで、ターゲットサンプルを分類することを目的としている。
既存の手法は、通常、対象サンプル間のペアワイズ関係を利用して、これらのサンプルを意味的特徴に基づいてクラスタリングすることで、それらの相関関係を見つけようとする。
本研究では、高次近傍関係を利用して、ドメインシフト効果を明示的に考慮した新しいSFDA法を提案する。
論文 参考訳(メタデータ) (2024-05-11T05:07:43Z) - Uncertainty-guided Open-Set Source-Free Unsupervised Domain Adaptation with Target-private Class Segregation [22.474866164542302]
UDAアプローチはソースとターゲットドメインが同じラベル空間を共有していると一般的に仮定する。
本稿では、SF-OSDA(Source-Free Open-set Domain Adaptation)設定の課題について考察する。
本稿では,サンプルを複数の未知のクラスに分離することで,ターゲット・プライベートカテゴリの粒度を利用したSF-OSDAの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T13:52:00Z) - Probabilistic Test-Time Generalization by Variational Neighbor-Labeling [62.158807685159736]
本稿では、ドメインの一般化を試み、モデルが未確認のターゲットドメインにデプロイされる前に、ソースドメインにのみトレーニングされる。
ソーストレーニングされたモデルをテスト時にターゲットドメインに一般化するための、ターゲットサンプルの擬似ラベル化の確率。
より堅牢な擬似ラベルを生成するために、近隣のターゲットサンプルの情報を含む変分隣接ラベル。
論文 参考訳(メタデータ) (2023-07-08T18:58:08Z) - Ambiguity-Resistant Semi-Supervised Learning for Dense Object Detection [98.66771688028426]
本研究では,一段階検出器のためのAmbiguity-Resistant Semi-supervised Learning (ARSL)を提案する。
擬似ラベルの分類とローカライズ品質を定量化するために,JCE(Joint-Confidence Estimation)を提案する。
ARSLは、曖昧さを効果的に軽減し、MS COCOおよびPASCALVOC上で最先端のSSOD性能を達成する。
論文 参考訳(メタデータ) (2023-03-27T07:46:58Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - Provably Uncertainty-Guided Universal Domain Adaptation [34.76381510773768]
ユニバーサルドメイン適応(UniDA)は、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としている。
UniDAの主な課題は、識別不能なラベルセットが2つのドメイン間のミスアライメントを引き起こすことである。
潜在空間における対象サンプルの分布を利用した新しい不確実性誘導型UniDAフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-19T09:16:07Z) - Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation [22.852237073492894]
Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
論文 参考訳(メタデータ) (2021-06-08T07:35:40Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。