論文の概要: Contrast and Mix: Temporal Contrastive Video Domain Adaptation with
Background Mixing
- arxiv url: http://arxiv.org/abs/2110.15128v1
- Date: Thu, 28 Oct 2021 14:03:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:23:48.678047
- Title: Contrast and Mix: Temporal Contrastive Video Domain Adaptation with
Background Mixing
- Title(参考訳): コントラストとミックス:背景混合による時間的コントラストビデオ領域適応
- Authors: Aadarsh Sahoo, Rutav Shah, Rameswar Panda, Kate Saenko, Abir Das
- Abstract要約: Contrast and Mix(CoMix)は、教師なしビデオドメイン適応のための識別的不変な特徴表現を学習することを目的とした、新しいコントラスト学習フレームワークである。
まず,2つの異なる速度でラベル付きビデオの符号化表現の類似性を最大化することにより,時間的コントラスト学習を用いてドメインギャップをブリッジする。
第2に,両ドメイン間で共有されるアクションセマンティクスを活用するために,アンカー毎の肯定的な追加を可能にするバックグラウンドミキシングを用いることにより,時間的コントラスト損失の新たな拡張を提案する。
- 参考スコア(独自算出の注目度): 55.73722120043086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation which aims to adapt models trained on a
labeled source domain to a completely unlabeled target domain has attracted
much attention in recent years. While many domain adaptation techniques have
been proposed for images, the problem of unsupervised domain adaptation in
videos remains largely underexplored. In this paper, we introduce Contrast and
Mix (CoMix), a new contrastive learning framework that aims to learn
discriminative invariant feature representations for unsupervised video domain
adaptation. First, unlike existing methods that rely on adversarial learning
for feature alignment, we utilize temporal contrastive learning to bridge the
domain gap by maximizing the similarity between encoded representations of an
unlabeled video at two different speeds as well as minimizing the similarity
between different videos played at different speeds. Second, we propose a novel
extension to the temporal contrastive loss by using background mixing that
allows additional positives per anchor, thus adapting contrastive learning to
leverage action semantics shared across both domains. Moreover, we also
integrate a supervised contrastive learning objective using target
pseudo-labels to enhance discriminability of the latent space for video domain
adaptation. Extensive experiments on several benchmark datasets demonstrate the
superiority of our proposed approach over state-of-the-art methods. Project
page: https://cvir.github.io/projects/comix
- Abstract(参考訳): ラベル付きソースドメインでトレーニングされたモデルを完全にラベルなしのターゲットドメインに適用することを目的とした教師なしドメイン適応が近年注目を集めている。
多くのドメイン適応手法が画像に対して提案されているが、ビデオにおける教師なしドメイン適応の問題はほとんど未解決である。
本稿では,教師なしビデオドメイン適応のための識別的不変特徴表現の学習を目的とした,新しいコントラスト学習フレームワークであるContrast and Mix(CoMix)を紹介する。
まず,非ラベル付きビデオの符号化表現間の類似性を2つの異なる速度で最大化し,異なる速度で再生される異なるビデオ間の類似性を最小化することにより,時間的コントラスト学習を用いてドメインギャップを埋める。
第2に,両ドメイン間で共有されるアクションセマンティクスを活用するために,アンカー毎の肯定的な追加を可能にするバックグラウンドミキシングを用いることにより,時間的コントラスト損失の新たな拡張を提案する。
さらに,対象の擬似ラベルを用いた教師付きコントラスト学習目標を統合し,映像領域適応のための潜在空間の識別性を高める。
いくつかのベンチマークデータセットに対する大規模な実験は、提案手法が最先端手法よりも優れていることを示す。
プロジェクトページ: https://cvir.github.io/projects/comix
関連論文リスト
- Contrastive Domain Adaptation for Time-Series via Temporal Mixup [14.723714504015483]
時系列データのための新しい軽量コントラスト型ドメイン適応フレームワークであるCoTMixを提案する。
具体的には、ソースとターゲットドメインに対する2つの中間的な拡張ビューを生成するための、新しい時間混合戦略を提案する。
我々のアプローチは、最先端のUDAメソッドを著しく上回ります。
論文 参考訳(メタデータ) (2022-12-03T06:53:38Z) - PiPa: Pixel- and Patch-wise Self-supervised Learning for Domain
Adaptative Semantic Segmentation [100.6343963798169]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、学習モデルの他のドメインへの一般化を強化することを目的としている。
そこで我々は,ドメイン適応型セマンティックセマンティックセグメンテーションのための,PiPaという,画素・パッチ対応の自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:31:24Z) - Contrastive Domain Adaptation [4.822598110892847]
コントラスト学習を新しいドメイン適応設定に拡張することを提案する。
比較学習は、教師なしの環境で正と負の2組のサンプルを比較して比較することで学習する。
ドメイン適応問題に対処する上で有効な,最近提案されたコントラスト学習フレームワークのバリエーションを開発した。
論文 参考訳(メタデータ) (2021-03-26T13:55:19Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z) - Adversarial Bipartite Graph Learning for Video Domain Adaptation [50.68420708387015]
ドメイン適応技術は,異なる領域間のモデルを適応させることに重点を置いているが,ビデオ認識領域ではめったに研究されていない。
近年,映像のソースと対象映像の表現を統一するために,対角学習を活用する視覚領域適応はビデオにはあまり効果がない。
本稿では,ソースとターゲットの相互作用を直接モデル化するAdversarial Bipartite Graph (ABG)学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T03:48:41Z) - Unsupervised Domain Adaptive Object Detection using Forward-Backward
Cyclic Adaptation [13.163271874039191]
本稿では,フォワード・バック・サイクリック(FBC)トレーニングによる物体検出のための教師なし領域適応手法を提案する。
近年, 対角訓練に基づく領域適応法は, 限界特徴分布アライメントによる領域差最小化に有効であることが示された。
本稿では,後方ホッピングによるソースからターゲットへの適応と,前方通過によるターゲットからソースへの適応を反復的に計算するフォワード・バック・サイクル適応を提案する。
論文 参考訳(メタデータ) (2020-02-03T06:24:58Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。