論文の概要: Exploiting Inter-Sample Affinity for Knowability-Aware Universal Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2207.09280v1
- Date: Tue, 19 Jul 2022 13:49:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 14:01:11.503431
- Title: Exploiting Inter-Sample Affinity for Knowability-Aware Universal Domain
Adaptation
- Title(参考訳): 知識度を考慮したユニバーサルドメイン適応のためのサンプル間親和性の拡大
- Authors: Yifan Wang and Lin Zhang and Ran Song and Lin Ma and Wei Zhang
- Abstract要約: ユニバーサルドメイン適応(Universal Domain adapt, UDA)は、共通クラスの知識を、ラベルセットに関する事前知識なしで、ソースドメインからターゲットドメインに転送することを目的としている。
近年の手法では,未知の標本と既知の標本との親和性を無視しつつ,既知のクラス内での親和性を高めることが望まれている。
本稿では,このようなサンプル間の親和性を活かすことで,UDAの性能を大幅に向上させることができることを示す。
- 参考スコア(独自算出の注目度): 28.649343679597163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Universal domain adaptation (UDA) aims to transfer the knowledge of common
classes from source domain to target domain without any prior knowledge on the
label set, which requires to distinguish the unknown samples from the known
ones in the target domain. Recent methods preferred to increase the
inter-sample affinity within a known class, while they ignored the inter-sample
affinity between the unknown samples and the known ones. This paper reveals
that exploiting such inter-sample affinity can significantly improve the
performance of UDA and proposes a knowability-aware UDA framework based on it.
First, we estimate the knowability of each target sample by searching its
neighboring samples in the source domain. Then, we propose an auto-thresholding
scheme applied to the estimated knowability to determine whether a target
sample is unknown or known. Next, in addition to increasing the inter-sample
affinity within each known class like previous methods, we design new losses
based on the estimated knowability to reduce the inter-sample affinity between
the unknown target samples and the known ones. Finally, experiments on four
public datasets demonstrate that our method significantly outperforms existing
state-of-the-art methods.
- Abstract(参考訳): ユニバーサルドメイン適応(Universal Domain adapt、UDA)は、ソースドメインからターゲットドメインへの共通クラスの知識をラベルセットに関する事前の知識なしで転送することを目的としており、ターゲットドメイン内の既知のものと未知のサンプルを区別する必要がある。
最近の手法では既知のクラス内のサンプル間親和性を高めたが、未知のサンプルと既知のクラスとの間のサンプル間親和性は無視された。
本稿では,このようなサンプル間の親和性を利用してUDAの性能を大幅に向上させることができることを明らかにする。
まず,各対象サンプルの可知性を,ソース領域の近傍サンプルを探索することによって推定する。
そこで,対象試料が不明か不明かを判断するために,推定知識量に適用する自動解法を提案する。
次に,従来の手法のように各既知のクラス内のサンプル間の親和性を高めることに加えて,未知のターゲットと既知のクラス間の親和性を低減するために,推定された可知性に基づいて新たな損失を設計する。
最後に,4つの公開データセットを用いた実験により,本手法が既存の最先端手法を大幅に上回ることを示した。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - High-order Neighborhoods Know More: HyperGraph Learning Meets Source-free Unsupervised Domain Adaptation [34.08681468394247]
Source-free Unsupervised Domain Adaptationは、未学習のソースモデルと未学習のターゲットモデルにのみアクセスすることで、ターゲットサンプルを分類することを目的としている。
既存の手法は、通常、対象サンプル間のペアワイズ関係を利用して、これらのサンプルを意味的特徴に基づいてクラスタリングすることで、それらの相関関係を見つけようとする。
本研究では、高次近傍関係を利用して、ドメインシフト効果を明示的に考慮した新しいSFDA法を提案する。
論文 参考訳(メタデータ) (2024-05-11T05:07:43Z) - Uncertainty-guided Open-Set Source-Free Unsupervised Domain Adaptation with Target-private Class Segregation [22.474866164542302]
UDAアプローチはソースとターゲットドメインが同じラベル空間を共有していると一般的に仮定する。
本稿では、SF-OSDA(Source-Free Open-set Domain Adaptation)設定の課題について考察する。
本稿では,サンプルを複数の未知のクラスに分離することで,ターゲット・プライベートカテゴリの粒度を利用したSF-OSDAの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T13:52:00Z) - Probabilistic Test-Time Generalization by Variational Neighbor-Labeling [62.158807685159736]
本稿では、ドメインの一般化を試み、モデルが未確認のターゲットドメインにデプロイされる前に、ソースドメインにのみトレーニングされる。
ソーストレーニングされたモデルをテスト時にターゲットドメインに一般化するための、ターゲットサンプルの擬似ラベル化の確率。
より堅牢な擬似ラベルを生成するために、近隣のターゲットサンプルの情報を含む変分隣接ラベル。
論文 参考訳(メタデータ) (2023-07-08T18:58:08Z) - Ambiguity-Resistant Semi-Supervised Learning for Dense Object Detection [98.66771688028426]
本研究では,一段階検出器のためのAmbiguity-Resistant Semi-supervised Learning (ARSL)を提案する。
擬似ラベルの分類とローカライズ品質を定量化するために,JCE(Joint-Confidence Estimation)を提案する。
ARSLは、曖昧さを効果的に軽減し、MS COCOおよびPASCALVOC上で最先端のSSOD性能を達成する。
論文 参考訳(メタデータ) (2023-03-27T07:46:58Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - Provably Uncertainty-Guided Universal Domain Adaptation [34.76381510773768]
ユニバーサルドメイン適応(UniDA)は、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としている。
UniDAの主な課題は、識別不能なラベルセットが2つのドメイン間のミスアライメントを引き起こすことである。
潜在空間における対象サンプルの分布を利用した新しい不確実性誘導型UniDAフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-19T09:16:07Z) - Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation [22.852237073492894]
Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
論文 参考訳(メタデータ) (2021-06-08T07:35:40Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。