論文の概要: Learning Temporal Consistency for Source-Free Video Domain Adaptation
- arxiv url: http://arxiv.org/abs/2203.04559v1
- Date: Wed, 9 Mar 2022 07:33:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 15:14:33.537111
- Title: Learning Temporal Consistency for Source-Free Video Domain Adaptation
- Title(参考訳): ソースフリービデオ領域適応のための時間一貫性の学習
- Authors: Yuecong Xu, Jianfei Yang, Haozhi Cao, Keyu Wu, Wu Min, Zhenghua Chen
- Abstract要約: 実世界のアプリケーションでは、ソースビデオ領域の主題とシーンは、対象のビデオ領域の主題と無関係であるべきである。
このような問題に対処するため、より実用的なドメイン適応シナリオを、SFVDA(Source-Free Video-based Domain Adaptation)として定式化している。
本稿では,時間的一貫性を学習してSFVDAに対処するための新しい注意時間一貫性ネットワーク(ATCoN)を提案する。
- 参考スコア(独自算出の注目度): 16.230405375192262
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Video-based Unsupervised Domain Adaptation (VUDA) methods improve the
robustness of video models, enabling them to be applied to action recognition
tasks across different environments. However, these methods require constant
access to source data during the adaptation process. Yet in many real-world
applications, subjects and scenes in the source video domain should be
irrelevant to those in the target video domain. With the increasing emphasis on
data privacy, such methods that require source data access would raise serious
privacy issues. Therefore, to cope with such concern, a more practical domain
adaptation scenario is formulated as the Source-Free Video-based Domain
Adaptation (SFVDA). Though there are a few methods for Source-Free Domain
Adaptation (SFDA) on image data, these methods yield degenerating performance
in SFVDA due to the multi-modality nature of videos, with the existence of
additional temporal features. In this paper, we propose a novel Attentive
Temporal Consistent Network (ATCoN) to address SFVDA by learning temporal
consistency, guaranteed by two novel consistency objectives, namely feature
consistency and source prediction consistency, performed across local temporal
features. ATCoN further constructs effective overall temporal features by
attending to local temporal features based on prediction confidence. Empirical
results demonstrate the state-of-the-art performance of ATCoN across various
cross-domain action recognition benchmarks.
- Abstract(参考訳): ビデオベースのUnsupervised Domain Adaptation (VUDA)メソッドは、ビデオモデルの堅牢性を改善し、異なる環境におけるアクション認識タスクに適用できるようにする。
しかし,これらの手法は適応処理中に常にソースデータにアクセスする必要がある。
しかし、多くの現実世界のアプリケーションでは、ソースビデオドメインの主題やシーンは、ターゲットビデオドメインのものと無関係であるべきです。
データプライバシに重点を置いているため、ソースデータアクセスを必要とするメソッドは深刻なプライバシー問題を引き起こす。
したがって、そのような問題に対処するため、より実用的なドメイン適応シナリオを、SFVDA (Source-Free Video-based Domain Adaptation) として定式化する。
画像データには Source-Free Domain Adaptation (SFDA) の方法がいくつかあるが、ビデオのマルチモーダル性によりSFVDAの性能が劣化し、追加の時間的特徴がある。
本稿では,局所的な時間的特徴にまたがる特徴的一貫性とソース予測的一貫性という2つの新しい目標によって保証される時間的一貫性を学習することにより,sfvdaに対処する新しい注意的時間的一貫性ネットワーク(atcon)を提案する。
ATCoNはさらに、予測信頼度に基づいて、局所的な時間的特徴に出席することで、効果的な全体時間的特徴を構築する。
実験により,様々なドメイン間動作認識ベンチマークにおけるATCoNの最先端性能が実証された。
関連論文リスト
- Evidentially Calibrated Source-Free Time-Series Domain Adaptation with Temporal Imputation [38.88779207555418]
ソースフリードメイン適応(SFDA)は、ラベル付きソースドメインで事前訓練されたモデルを、ソースデータにアクセスせずにラベルなしのターゲットドメインに適応することを目的としている。
本稿では, 時系列SFDAの新規かつ効果的なアプローチであるMAsk And imPUte(MAPU)を提案する。
ソフトマックス予測に固有の過信問題に対処するために、明らかな不確実性推定を取り入れたE-MAPUも導入する。
論文 参考訳(メタデータ) (2024-06-04T05:36:29Z) - Source-Free Domain Adaptation with Temporal Imputation for Time Series
Data [19.616201184995532]
ソースフリードメイン適応(SFDA)は、ラベル付きソースドメインからラベルなしターゲットドメインへの事前訓練されたモデルを、ソースドメインデータにアクセスすることなく適応することを目的としている。
視覚的応用が盛んであるにもかかわらず、SFDAは時系列アプリケーションではほとんど探索されていない。
本稿では,時系列データ,すなわちMAskとimPUteに対して,ソースフリーなドメイン適応をシンプルかつ効果的に行う手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T14:22:03Z) - CoSDA: Continual Source-Free Domain Adaptation [78.47274343972904]
ソースデータにアクセスせずに、ソースフリードメイン適応(SFDA)は、ソースドメインのトレーニングされたモデルからターゲットドメインに知識を転送する。
最近では、ソースドメインのデータプライバシ保護の必要性から、SFDAの人気が高まっている。
教師-学生モデルペアを2倍高速に最適化し,整合性学習機能を備えた,CoSDAという連続的ソースフリードメイン適応手法を提案する。
論文 参考訳(メタデータ) (2023-04-13T15:53:23Z) - Spatio-Temporal Pixel-Level Contrastive Learning-based Source-Free
Domain Adaptation for Video Semantic Segmentation [117.39092621796753]
Source Domain Adaptation(SFDA)セットアップは、ソースデータにアクセスすることなく、ターゲットドメインにソーストレーニングされたモデルを適用することを目的としている。
情報源データの欠如に対処するために,時間情報の相関を最大限に活用する新しい手法を提案する。
実験によると、PixelLは現在のUDAやFDAのアプローチと比較して、ベンチマークの非最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-03-25T05:06:23Z) - Unsupervised Video Domain Adaptation for Action Recognition: A
Disentanglement Perspective [37.45565756522847]
我々は2つの潜在要因からドメイン間ビデオを生成することを検討する。
TranSVAEフレームワークはそのような世代をモデル化するために開発される。
UCF-HMDB、Jester、Epic-Kitchensデータセットの実験は、TranSVAEの有効性と優位性を検証する。
論文 参考訳(メタデータ) (2022-08-15T17:59:31Z) - EXTERN: Leveraging Endo-Temporal Regularization for Black-box Video
Domain Adaptation [36.8236874357225]
Black-box Video Domain Adaptation (BVDA)は、ソースビデオモデルをブラックボックス予測子としてのみ提供する、より現実的で困難なシナリオである。
本研究では,マスク・ツー・ミックス戦略とビデオ調整正規化を適用して,新しいEdoとeXo-temporal Regularized Network(EXTERN)を提案する。
論文 参考訳(メタデータ) (2022-08-10T07:09:57Z) - Unsupervised Domain Adaptation for Video Transformers in Action
Recognition [76.31442702219461]
ビデオ行動認識のためのシンプルで斬新なUDA手法を提案する。
私たちのアプローチでは、ターゲットドメインをより一般化した堅牢なソースモデルを構築しています。
UDAのための2つのビデオアクションベンチマークの認識結果について報告する。
論文 参考訳(メタデータ) (2022-07-26T12:17:39Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - Learning Cross-modal Contrastive Features for Video Domain Adaptation [138.75196499580804]
本稿では、クロスモーダルとクロスドメインの特徴表現を同時に正規化する、ビデオドメイン適応のための統合フレームワークを提案する。
具体的には、ドメインの各モダリティを視点として扱い、コントラスト学習手法を適切に設計されたサンプリング戦略で活用する。
論文 参考訳(メタデータ) (2021-08-26T18:14:18Z) - Adversarial Bipartite Graph Learning for Video Domain Adaptation [50.68420708387015]
ドメイン適応技術は,異なる領域間のモデルを適応させることに重点を置いているが,ビデオ認識領域ではめったに研究されていない。
近年,映像のソースと対象映像の表現を統一するために,対角学習を活用する視覚領域適応はビデオにはあまり効果がない。
本稿では,ソースとターゲットの相互作用を直接モデル化するAdversarial Bipartite Graph (ABG)学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T03:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。