論文の概要: Contrastive Bi-Projector for Unsupervised Domain Adaption
- arxiv url: http://arxiv.org/abs/2308.07017v2
- Date: Sat, 30 Dec 2023 01:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 01:58:29.192638
- Title: Contrastive Bi-Projector for Unsupervised Domain Adaption
- Title(参考訳): 教師なし領域適応のための対比バイプロジェクタ
- Authors: Lin-Chieh Huang, Hung-Hsu Tsai
- Abstract要約: コントラッシブ・バイプロジェクタ(CBP)に基づく新しい非教師なし領域適応法(UDA)を提案する。
ここでCBPUDAと呼ばれ、特徴抽出器(FE)を効果的に促進し、分類とドメイン適応のための曖昧な特徴の生成を減らす。
実験結果から, CBPUDAは従来のUDA法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel unsupervised domain adaption (UDA) method based
on contrastive bi-projector (CBP), which can improve the existing UDA methods.
It is called CBPUDA here, which effectively promotes the feature extractors
(FEs) to reduce the generation of ambiguous features for classification and
domain adaption. The CBP differs from traditional bi-classifier-based methods
at that these two classifiers are replaced with two projectors of performing a
mapping from the input feature to two distinct features. These two projectors
and the FEs in the CBPUDA can be trained adversarially to obtain more refined
decision boundaries so that it can possess powerful classification performance.
Two properties of the proposed loss function are analyzed here. The first
property is to derive an upper bound of joint prediction entropy, which is used
to form the proposed loss function, contrastive discrepancy (CD) loss. The CD
loss takes the advantages of the contrastive learning and the bi-classifier.
The second property is to analyze the gradient of the CD loss and then overcome
the drawback of the CD loss. The result of the second property is utilized in
the development of the gradient scaling (GS) scheme in this paper. The GS
scheme can be exploited to tackle the unstable problem of the CD loss because
training the CBPUDA requires using contrastive learning and adversarial
learning at the same time. Therefore, using the CD loss with the GS scheme
overcomes the problem mentioned above to make features more compact for
intra-class and distinguishable for inter-class. Experimental results express
that the CBPUDA is superior to conventional UDA methods under consideration in
this paper for UDA and fine-grained UDA tasks.
- Abstract(参考訳): 本稿では,既存のUDA手法を改善するために,コントラッシブ・バイプロジェクタ(CBP)に基づく新しいunsupervised domain adaption(UDA)手法を提案する。
ここでCBPUDAと呼ばれ、特徴抽出器(FE)を効果的に促進し、分類とドメイン適応のための曖昧な特徴の生成を減らす。
CBPは、2つの分類器を入力特徴から2つの異なる特徴へのマッピングを行う2つのプロジェクタに置き換えるという点で、従来の2つの分類器ベースの手法とは異なる。
これら2つのプロジェクタとCBPUDAのFEは、強力な分類性能を持つように、より洗練された決定境界を得るために逆向きに訓練することができる。
提案する損失関数の2つの性質を解析した。
第1の特性は、共役予測エントロピーの上界を導出することであり、これは、提案された損失関数(CD損失)を形成するために用いられる。
CDの損失は、対照的な学習と二クラス化の利点を生かしている。
2つ目の特性は、CD損失の勾配を分析し、CD損失の欠点を克服することである。
本論文では, 勾配スケーリング (gs) 方式の開発において, 2つ目の特性を生かした。
CBPUDAのトレーニングでは、コントラスト学習と対逆学習を同時に行う必要があるため、GSスキームはCD損失の不安定な問題に対処するために利用することができる。
したがって、GSスキームによるCD損失を用いることで、上述した問題を克服し、クラス内の特徴をよりコンパクトにし、クラス間の特徴を識別できるようにする。
実験結果は,本論文で検討されている従来の uda 法よりも cbpuda が優れていることを示す。
関連論文リスト
- Self-degraded contrastive domain adaptation for industrial fault diagnosis with bi-imbalanced data [7.6544734853901035]
両不均衡データの下でのドメインの不一致を処理するための自己劣化コントラスト型ドメイン適応フレームワークを提案する。
モデルプルーニングに基づく非バランス対応コントラスト学習により,まず特徴抽出器を事前訓練する。
そして、教師付き対照的なドメインの敵対的学習に基づいて、サンプルをドメイン境界から遠ざけます。
論文 参考訳(メタデータ) (2024-05-31T08:51:57Z) - How Useful is Continued Pre-Training for Generative Unsupervised Domain Adaptation? [23.454153602068786]
生成型UDAにおけるCPT(Continuoused Pre-Training)の有用性について検討した。
以上の結果から,下流の課題を暗黙的に学習し,その課題に有意なマスク付き単語を予測できることが示唆された。
論文 参考訳(メタデータ) (2024-01-31T00:15:34Z) - Deep Metric Learning for Unsupervised Remote Sensing Change Detection [60.89777029184023]
リモートセンシング変化検出(RS-CD)は、マルチテンポラルリモートセンシング画像(MT-RSI)から関連する変化を検出することを目的とする。
既存のRS-CD法の性能は、大規模な注釈付きデータセットのトレーニングによるものである。
本稿では,これらの問題に対処可能なディープメトリック学習に基づく教師なしCD手法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:52:45Z) - Discriminator-free Unsupervised Domain Adaptation for Multi-label Image
Classification [11.825795835537324]
マルチラベル画像分類(MLIC)のための識別器レス逆数型Unminator Domain Adaptation (UDA)を提案する。
提案手法は,3種類の領域シフトを対象とする複数ラベル画像データセットを用いて評価する。
論文 参考訳(メタデータ) (2023-01-25T14:45:13Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Cross-Site Severity Assessment of COVID-19 from CT Images via Domain
Adaptation [64.59521853145368]
CT画像によるコロナウイルス病2019(COVID-19)の早期かつ正確な重症度評価は,集中治療単位のイベント推定に有効である。
ラベル付きデータを拡張し、分類モデルの一般化能力を向上させるためには、複数のサイトからデータを集約する必要がある。
この課題は、軽度の感染症と重度の感染症の集団不均衡、部位間のドメイン分布の相違、不均一な特徴の存在など、いくつかの課題に直面する。
論文 参考訳(メタデータ) (2021-09-08T07:56:51Z) - Channel DropBlock: An Improved Regularization Method for Fine-Grained
Visual Classification [58.07257910065007]
既存のアプローチは主に、識別的部分を見つけるための注意機構や、高度にパラメータ化された特徴を弱教師付きで抽出する特徴符号化アプローチを導入することでこの問題に対処している。
本研究では,CDB(Channel DropBlock)と呼ばれる軽量で効果的な正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:03:02Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - A Generalized Kernel Risk Sensitive Loss for Robust Two-Dimensional
Singular Value Decomposition [11.234115388848283]
2次元特異分解(2DSVD)は、画像再構成、分類、クラスタリングなどの画像処理タスクに広く用いられている。
従来の2DSVDは平均二乗誤差(MSE)損失に基づいており、これは外れ値に敏感である。
本稿では,雑音と外乱の一般化されたカーネルリスクに基づくロバストDSVDを提案する。
論文 参考訳(メタデータ) (2020-05-10T14:02:40Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。