論文の概要: Semantic Feature Learning for Universal Unsupervised Cross-Domain
Retrieval
- arxiv url: http://arxiv.org/abs/2403.05690v1
- Date: Fri, 8 Mar 2024 21:56:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 12:52:12.971883
- Title: Semantic Feature Learning for Universal Unsupervised Cross-Domain
Retrieval
- Title(参考訳): 非教師付きクロスドメイン検索のための意味的特徴学習
- Authors: Lixu Wang, Xinyu Du, Qi Zhu
- Abstract要約: 本稿では,Universal Unsupervised Cross-Domain Retrieval (U2CDR) の問題を初めて紹介する。
第1段階では、インスタンスプロトタイプ混合コントラスト損失のガイダンスに基づいて、クロスドメイン統一構造が確立される。
第2段階では、修正された対向訓練機構により、ドメインアライメント中に確立された原型構造に対して最小限の変更が保証される。
- 参考スコア(独自算出の注目度): 10.270998709614538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-domain retrieval (CDR), as a crucial tool for numerous technologies, is
finding increasingly broad applications. However, existing efforts face several
major issues, with the most critical being the need for accurate supervision,
which often demands costly resources and efforts. Cutting-edge studies focus on
achieving unsupervised CDR but typically assume that the category spaces across
domains are identical, an assumption that is often unrealistic in real-world
scenarios. This is because only through dedicated and comprehensive analysis
can the category spaces of different domains be confirmed as identical, which
contradicts the premise of unsupervised scenarios. Therefore, in this work, we
introduce the problem of Universal Unsupervised Cross-Domain Retrieval (U^2CDR)
for the first time and design a two-stage semantic feature learning framework
to address it. In the first stage, a cross-domain unified prototypical
structure is established under the guidance of an instance-prototype-mixed
contrastive loss and a semantic-enhanced loss, to counteract category space
differences. In the second stage, through a modified adversarial training
mechanism, we ensure minimal changes for the established prototypical structure
during domain alignment, enabling more accurate nearest-neighbor searching.
Extensive experiments across multiple datasets and scenarios, including closet,
partial, and open-set CDR, demonstrate that our approach significantly
outperforms existing state-of-the-art CDR works and some potentially effective
studies from other topics in solving U^2CDR challenges.
- Abstract(参考訳): 多くの技術にとって重要なツールであるクロスドメイン検索(CDR)は、ますます広範に応用されている。
しかし、既存の取り組みはいくつかの大きな問題に直面しており、最も重要なのは、しばしばコストのかかるリソースと努力を必要とする、正確な監視の必要性である。
最先端の研究は教師なしのcdrの達成に焦点をあてるが、一般的にドメイン間の圏空間は同一であると仮定する。
これは、専門的で包括的な分析によってのみ異なる領域の圏空間が同一であると確認できるためであり、教師なしシナリオの前提とは矛盾する。
そこで本研究では,Universal Unsupervised Cross-Domain Retrieval (U^2CDR) の問題を初めて紹介し,それに対応する2段階の意味的特徴学習フレームワークを設計する。
第1段階では、インスタンス-prototype-mixed contrastive loss と semantic-enhanced loss の指導のもとにクロスドメイン統一原型構造が確立され、圏空間差に反抗する。
第2段階では、修正された対向訓練機構により、確立された原型構造に対するドメインアライメント中の最小限の変更を保証し、より正確な近距離探索を可能にする。
クローズト,部分的,オープンセットのCDRを含む,複数のデータセットやシナリオにわたる大規模な実験は,我々のアプローチが既存の最先端のCDRよりも大幅に優れており,U^2CDR課題の解決における他のトピックによる潜在的に効果的な研究がいくつかあることを実証している。
関連論文リスト
- Understanding the Cross-Domain Capabilities of Video-Based Few-Shot Action Recognition Models [3.072340427031969]
Few-shot Action Recognition (FSAR) は、ビデオ中の新しいアクションをわずかに例を使って識別できるモデルを学ぶことを目的としている。
メタトレーニング中に見られるベースデータセットと評価に使用される新しいデータセットは、異なるドメインから得ることができると仮定すると、クロスドメインの少数ショット学習によってデータ収集とアノテーションコストが軽減される。
我々は、新しいクロスドメインタスクに対して、既存の最先端の単一ドメイン、転送ベース、およびクロスドメインFSARメソッドを体系的に評価する。
論文 参考訳(メタデータ) (2024-06-03T07:48:18Z) - DIGIC: Domain Generalizable Imitation Learning by Causal Discovery [69.13526582209165]
因果性は機械学習と組み合わせて、ドメインの一般化のための堅牢な表現を生成する。
我々は、実証データ分布を活用して、ドメインの一般化可能なポリシーの因果的特徴を発見するために、異なる試みを行っている。
DIGICと呼ばれる新しいフレームワークを設計し、実演データ分布から専門家行動の直接的な原因を見出すことにより因果的特徴を識別する。
論文 参考訳(メタデータ) (2024-02-29T07:09:01Z) - Cross-Domain Few-Shot Segmentation via Iterative Support-Query
Correspondence Mining [81.09446228688559]
Cross-Domain Few-Shots (CD-FSS) は、限定された例のみを用いて、異なるドメインから新しいカテゴリを分割するという課題を提起する。
本稿では,CD-FSSの課題に対処する新しいクロスドメイン微調整手法を提案する。
論文 参考訳(メタデータ) (2024-01-16T14:45:41Z) - SADA: Semantic adversarial unsupervised domain adaptation for Temporal Action Localization [32.35611853688068]
本稿では,Sparse TAL における Unsupervised Domain Adaptation のアプローチを初めて紹介する。
我々は、現実的なスパース動作検出ベンチマークで動作するドメイン適応モデルの開発を開拓した。
EpicKitchens100とCharadesEgoをベースとした,複数のドメインシフトを評価する新しいベンチマークセットを提案する。
論文 参考訳(メタデータ) (2023-12-20T19:08:49Z) - Unsupervised Domain Adaptive 3D Detection with Multi-Level Consistency [90.71745178767203]
ディープラーニングに基づく3Dオブジェクト検出は、大規模な自律走行データセットの出現によって、前例のない成功を収めた。
既存の3Dドメイン適応検出手法は、しばしばターゲットのドメインアノテーションへの事前アクセスを前提とします。
我々は、ソースドメインアノテーションのみを利用する、より現実的な、教師なしの3Dドメイン適応検出について研究する。
論文 参考訳(メタデータ) (2021-07-23T17:19:23Z) - Learning Domain Invariant Representations for Generalizable Person
Re-Identification [71.35292121563491]
ReID(Generalizable person Re-Identification)は、最近のコンピュータビジョンコミュニティで注目を集めている。
DIR-ReID(Domain Invariant Representations for Generalizable Person Re-Identification)という新しい一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T18:59:48Z) - Unsupervised Domain Adaptation Network with Category-Centric Prototype
Aligner for Biomedical Image Segmentation [1.1799563040751586]
本稿では,ラベル付きソースドメインから非ラベル付きターゲットドメインへ学習したモデルを一般化するための新しい非監視ドメイン適応ネットワークを提案する。
具体的には,条件付きドメイン判別器(cdd)とカテゴリ中心プロトタイプライナー(ccpa)という2つのキーモジュールからなる。
論文 参考訳(メタデータ) (2021-03-03T07:07:38Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Cross-domain Face Presentation Attack Detection via Multi-domain
Disentangled Representation Learning [109.42987031347582]
顔提示攻撃検出(PAD)は,顔認識システムにおいて緊急に解決すべき課題である。
クロスドメイン顔PADのための効率的な非交叉表現学習を提案する。
我々のアプローチは、不整合表現学習(DR-Net)とマルチドメイン学習(MD-Net)からなる。
論文 参考訳(メタデータ) (2020-04-04T15:45:14Z) - Unsupervised Domain Adaptation via Discriminative Manifold Embedding and
Alignment [23.72562139715191]
教師なしドメイン適応は、ソースドメインから教師なしターゲットドメインへの豊富な情報を活用するのに効果的である。
対象領域のハードアサインされた擬似ラベルは、本質的なデータ構造に危険である。
一貫した多様体学習フレームワークは、一貫した伝達可能性と識別可能性を達成するために提案される。
論文 参考訳(メタデータ) (2020-02-20T11:06:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。