論文の概要: Feature Representation Learning for Unsupervised Cross-domain Image
Retrieval
- arxiv url: http://arxiv.org/abs/2207.09721v1
- Date: Wed, 20 Jul 2022 07:52:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:36:42.748443
- Title: Feature Representation Learning for Unsupervised Cross-domain Image
Retrieval
- Title(参考訳): 教師なしクロスドメイン画像検索のための特徴表現学習
- Authors: Conghui Hu and Gim Hee Lee
- Abstract要約: 現在の教師付きクロスドメイン画像検索法は優れた性能が得られる。
データ収集とラベリングのコストは、実際のアプリケーションにおける実践的なデプロイにおいて、難易度の高い障壁を課します。
本稿では,クラス意味認識機能抽出を支援するために,クラスタ単位のコントラスト学習機構を提案する。
- 参考スコア(独自算出の注目度): 73.3152060987961
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current supervised cross-domain image retrieval methods can achieve excellent
performance. However, the cost of data collection and labeling imposes an
intractable barrier to practical deployment in real applications. In this
paper, we investigate the unsupervised cross-domain image retrieval task, where
class labels and pairing annotations are no longer a prerequisite for training.
This is an extremely challenging task because there is no supervision for both
in-domain feature representation learning and cross-domain alignment. We
address both challenges by introducing: 1) a new cluster-wise contrastive
learning mechanism to help extract class semantic-aware features, and 2) a
novel distance-of-distance loss to effectively measure and minimize the domain
discrepancy without any external supervision. Experiments on the Office-Home
and DomainNet datasets consistently show the superior image retrieval
accuracies of our framework over state-of-the-art approaches. Our source code
can be found at https://github.com/conghuihu/UCDIR.
- Abstract(参考訳): 現在のクロスドメイン画像検索手法は優れた性能を実現することができる。
しかし、データ収集とラベリングのコストは、実際のアプリケーションにおける実用的なデプロイに対する難解な障壁を伴います。
本稿では,クラスラベルとペアリングアノテーションがもはやトレーニングの前提条件ではない,教師なしのクロスドメイン画像検索タスクについて検討する。
ドメイン内特徴表現学習とドメイン間アライメントの両方を監視できないため、これは非常に難しいタスクです。
両方の課題を 紹介することで解決します
1)クラス意味認識特徴抽出を支援する新しいクラスタ型コントラスト学習機構
2)外部の監督なしに、領域の不一致を効果的に計測し、最小化する新たな距離損失。
office-homeとdomainnetのデータセットでの実験では、最先端のアプローチよりも優れた画像検索能力が一貫して示されています。
ソースコードはhttps://github.com/conghuihu/UCDIR.comで確認できます。
関連論文リスト
- Prompt-based Visual Alignment for Zero-shot Policy Transfer [35.784936617675896]
強化学習におけるオーバーフィッティングは、強化学習への応用における主要な障害の1つとなっている。
ゼロショットポリシー転送のための画像における有害領域バイアスを軽減するために,プロンプトベースの視覚アライメント(PVA)を提案する。
CARLAシミュレータを用いて視覚に基づく自律運転タスクにおけるPVAの検証を行う。
論文 参考訳(メタデータ) (2024-06-05T13:26:30Z) - DecoupleNet: Decoupled Network for Domain Adaptive Semantic Segmentation [78.30720731968135]
セマンティックセグメンテーションにおける教師なしドメイン適応は、高価なピクセル単位のアノテーションへの依存を軽減するために提起されている。
我々は、ソースドメインのオーバーフィットを軽減し、最終的なモデルをセグメント化タスクに集中できるようにするDecoupleNetを提案する。
我々はまた、自己識別(SD)を推進し、擬似ラベルでより識別可能なターゲットドメイン特徴を学習するための補助分類器を導入した。
論文 参考訳(メタデータ) (2022-07-20T15:47:34Z) - Towards Unsupervised Sketch-based Image Retrieval [126.77787336692802]
本稿では,教師なし表現学習とスケッチ写真領域アライメントを同時に行う新しいフレームワークを提案する。
このフレームワークは,新しい教師なし設定では優れた性能を達成し,ゼロショット設定では最先端以上の性能を発揮する。
論文 参考訳(メタデータ) (2021-05-18T02:38:22Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals [78.12377360145078]
画素埋め込みを学習するために、コントラスト最適化の目的として、予め決められた事前を取り入れた新しい2段階フレームワークを導入する。
これは、プロキシタスクやエンドツーエンドのクラスタリングに依存する既存の作業から大きく逸脱している。
特に、PASCALでラベル付き例の1%だけを用いて学習した表現を微調整すると、7.1% mIoUで教師付き ImageNet の事前トレーニングを上回ります。
論文 参考訳(メタデータ) (2021-02-11T18:54:47Z) - One-Shot Unsupervised Cross-Domain Detection [33.04327634746745]
本稿では,テスト時に見られる対象サンプルを1つだけ使用することにより,ドメイン間の非教師なし適応を実現できるオブジェクト検出アルゴリズムを提案する。
これを実現するために、単発で任意のサンプルに適応するマルチタスクアーキテクチャを導入し、その上で自己教師型タスクを反復的に解決する。
論文 参考訳(メタデータ) (2020-05-23T22:12:20Z) - iFAN: Image-Instance Full Alignment Networks for Adaptive Object
Detection [48.83883375118966]
iFANは、イメージレベルとインスタンスレベルの両方で、機能の分散を正確に調整することを目的としている。
ソースのみのベースライン上で10%以上のAPで、最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2020-03-09T13:27:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。