論文の概要: Progressively Select and Reject Pseudo-labelled Samples for Open-Set
Domain Adaptation
- arxiv url: http://arxiv.org/abs/2110.12635v1
- Date: Mon, 25 Oct 2021 04:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 15:18:47.788332
- Title: Progressively Select and Reject Pseudo-labelled Samples for Open-Set
Domain Adaptation
- Title(参考訳): オープンセット領域適応のための擬似ラベル標本の段階的選択と拒絶
- Authors: Qian Wang, Fanlin Meng, Toby P. Breckon
- Abstract要約: ドメイン適応は、ラベル付きソースデータと未ラベルのターゲットデータを利用して、ターゲット領域の画像分類問題を解決する。
提案手法は,OSLPP(Open-Set Locality Preserving Projection)アルゴリズムを用いて,ソース領域とターゲット領域の識別的共通部分空間を学習する。
共通部分空間学習と擬似ラベル付きサンプル選択/拒絶は反復学習フレームワークにおいて互いに促進する。
- 参考スコア(独自算出の注目度): 26.889303784575805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation solves image classification problems in the target domain
by taking advantage of the labelled source data and unlabelled target data.
Usually, the source and target domains share the same set of classes. As a
special case, Open-Set Domain Adaptation (OSDA) assumes there exist additional
classes in the target domain but not present in the source domain. To solve
such a domain adaptation problem, our proposed method learns discriminative
common subspaces for the source and target domains using a novel Open-Set
Locality Preserving Projection (OSLPP) algorithm. The source and target domain
data are aligned in the learned common spaces class-wisely. To handle the
open-set classification problem, our method progressively selects target
samples to be pseudo-labelled as known classes and rejects the outliers if they
are detected as from unknown classes. The common subspace learning algorithm
OSLPP simultaneously aligns the labelled source data and pseudo-labelled target
data from known classes and pushes the rejected target data away from the known
classes. The common subspace learning and the pseudo-labelled sample
selection/rejection facilitate each other in an iterative learning framework
and achieves state-of-the-art performance on benchmark datasets Office-31 and
Office-Home with the average HOS of 87.4% and 67.0% respectively.
- Abstract(参考訳): 領域適応は、ラベル付きソースデータとラベルなしターゲットデータを利用して、対象領域の画像分類問題を解決する。
通常、ソースとターゲットドメインは同じクラスのセットを共有します。
特別な場合として、Open-Set Domain Adaptation (OSDA)は、ターゲットドメインには追加のクラスがあるが、ソースドメインには存在しないと仮定する。
このような領域適応問題を解決するため,提案手法は,新しいOSLPPアルゴリズムを用いて,ソース領域とターゲット領域の識別的共通部分空間を学習する。
ソースとターゲットのドメインデータは、学習された共通空間にクラス的に整列される。
オープンセットの分類問題に対処するため, 未知のクラスから検出された場合, 対象のサンプルを擬似ラベル付きクラスとして順次選択し, 異常値の除去を行う。
共通部分空間学習アルゴリズムOSLPPは、ラベル付きソースデータと擬似ラベル付きターゲットデータとを、既知のクラスから同時に調整し、削除されたターゲットデータを既知のクラスから切り離す。
共通部分空間学習と擬似ラベル付きサンプル選択/退避は反復学習フレームワークにおいて互いに促進し、平均HOS87.4%と67.0%のベンチマークデータセットであるOffice-31とOffice-Homeの最先端性能を達成する。
関連論文リスト
- Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - Unsupervised Domain Adaptation via Distilled Discriminative Clustering [45.39542287480395]
対象データの識別クラスタリングとしてドメイン適応問題を再検討する。
本稿では,ラベル付き情報源データよりも並列に教師付き学習目標を用いて,ネットワークを協調的に訓練することを提案する。
5つの人気のあるベンチマークデータセットに対して、慎重にアブレーション研究と広範な実験を行う。
論文 参考訳(メタデータ) (2023-02-23T13:03:48Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Open Set Domain Adaptation by Extreme Value Theory [22.826118321715455]
ソースとターゲットラベル空間が部分的な重複のみを前提として、オープンセットのドメイン適応問題に取り組みます。
重み付けが既知のクラスに属するサンプルの可能性を示すドメイン適応のためのインスタンスレベルの重み付け戦略を提案する。
従来のドメイン適応データセットを用いた実験では,提案手法が最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2020-12-22T19:31:32Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z) - Domain Adaptation with Auxiliary Target Domain-Oriented Classifier [115.39091109079622]
ドメイン適応は、知識をラベルリッチだが異質なドメインからラベルケアドメインに転送することを目的としている。
最も一般的なSSLテクニックの1つは、ラベルのない各データに擬似ラベルを割り当てる擬似ラベル付けである。
我々はAuxiliary Target Domain-Oriented (ATDOC) と呼ばれる新しい擬似ラベリングフレームワークを提案する。
ATDOCは、ターゲットデータのみのための補助分類器を導入してバイアスを軽減し、擬似ラベルの品質を向上させる。
論文 参考訳(メタデータ) (2020-07-08T15:01:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。