論文の概要: Confidence Attention and Generalization Enhanced Distillation for
Continuous Video Domain Adaptation
- arxiv url: http://arxiv.org/abs/2303.10452v2
- Date: Tue, 29 Aug 2023 06:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 18:48:40.614356
- Title: Confidence Attention and Generalization Enhanced Distillation for
Continuous Video Domain Adaptation
- Title(参考訳): 連続ビデオ領域適応のための信頼性注意と拡張拡張
- Authors: Xiyu Wang, Yuecong Xu, Jianfei Yang, Bihan Wen, Alex C. Kot
- Abstract要約: 連続ビデオドメイン適応(CVDA、Continuous Video Domain Adaptation)は、ソースモデルが個々の変更対象ドメインに適応する必要があるシナリオである。
CVDAの課題に対処するため,遺伝子組み換え型自己知識解離(CART)を用いた信頼性保証ネットワークを提案する。
- 参考スコア(独自算出の注目度): 62.458968086881555
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Continuous Video Domain Adaptation (CVDA) is a scenario where a source model
is required to adapt to a series of individually available changing target
domains continuously without source data or target supervision. It has wide
applications, such as robotic vision and autonomous driving. The main
underlying challenge of CVDA is to learn helpful information only from the
unsupervised target data while avoiding forgetting previously learned knowledge
catastrophically, which is out of the capability of previous Video-based
Unsupervised Domain Adaptation methods. Therefore, we propose a
Confidence-Attentive network with geneRalization enhanced self-knowledge
disTillation (CART) to address the challenge in CVDA. Firstly, to learn from
unsupervised domains, we propose to learn from pseudo labels. However, in
continuous adaptation, prediction errors can accumulate rapidly in pseudo
labels, and CART effectively tackles this problem with two key modules.
Specifically, The first module generates refined pseudo labels using model
predictions and deploys a novel attentive learning strategy. The second module
compares the outputs of augmented data from the current model to the outputs of
weakly augmented data from the source model, forming a novel consistency
regularization on the model to alleviate the accumulation of prediction errors.
Extensive experiments suggest that the CVDA performance of CART outperforms
existing methods by a considerable margin.
- Abstract(参考訳): 連続ビデオドメイン適応(Continuous Video Domain Adaptation, CVDA)とは、ソースデータやターゲットの監視なしに、個々の変更対象ドメインに継続的に適応するために、ソースモデルが必要であるシナリオである。
ロボットビジョンや自動運転といった幅広い応用がある。
CVDAの主な課題は、教師なしのターゲットデータからのみ有用な情報を学ぶことであり、ビデオベースの教師なしドメイン適応手法の能力から外れた、これまで学んだ知識を破滅的に忘れることを避けることである。
そこで本研究では, CVDA の課題に対処するため, 自己知識の強化による信頼度向上ネットワークを提案する。
まず,教師なし領域から学ぶために,擬似ラベルから学ぶことを提案する。
しかし、連続適応では、予測誤差は擬似ラベルに急速に蓄積され、cartはこの問題を2つのキーモジュールで効果的に解決する。
具体的には、モデル予測を用いて洗練された擬似ラベルを生成し、新しい注意学習戦略を展開する。
第2のモジュールは、現在のモデルからの拡張データの出力と、ソースモデルからの弱い拡張データの出力とを比較し、モデルに新しい一貫性の正規化を形成し、予測エラーの蓄積を緩和する。
CARTのCVDA性能は既存の手法よりもかなり優れていた。
関連論文リスト
- DRIVE: Dual-Robustness via Information Variability and Entropic Consistency in Source-Free Unsupervised Domain Adaptation [10.127634263641877]
ラベル付きデータなしで機械学習モデルを新しいドメインに適応させることは、医療画像、自律運転、リモートセンシングといったアプリケーションにおいて重要な課題である。
Source-Free Unsupervised Domain Adaptation (SFUDA)と呼ばれるこのタスクでは、未ラベルのターゲットデータのみを使用して、トレーニング済みのモデルをターゲットドメインに適応させる。
既存のSFUDAメソッドは、しばしば単一モデルアーキテクチャに依存し、ターゲットドメインにおける不確実性と可変性に悩まされる。
本稿では、2重モデルアーキテクチャを利用した新しいSFUDAフレームワークDRIVEを提案する。
論文 参考訳(メタデータ) (2024-11-24T20:35:04Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - ViDA: Homeostatic Visual Domain Adapter for Continual Test Time Adaptation [48.039156140237615]
目標ドメインの継続的な変更に事前訓練されたモデルを適用するために、連続的なテスト時間適応タスクを提案する。
我々はCTTA用のVisual Domain Adapter (ViDA) を設計し、ドメイン固有知識とドメイン共有知識の両方を明示的に扱う。
提案手法は,CTTAタスクの分類とセグメント化の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-06-07T11:18:53Z) - Continual Source-Free Unsupervised Domain Adaptation [37.060694803551534]
既存のソースフリーのUnsupervised Domain Adaptationアプローチは破滅的な忘れを見せる。
本稿では,SuDAの継続的な学習環境における課題に対応するための連続的なSUDA(C-SUDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T20:11:05Z) - SRoUDA: Meta Self-training for Robust Unsupervised Domain Adaptation [25.939292305808934]
教師なしドメイン適応(UDA)は、リッチラベルデータセットから学習した知識をラベルなしターゲットデータセットに転送することができる。
本稿では,UDAモデルの対角的ロバスト性を改善するために,SRoUDAというメタ自己学習パイプラインを提案する。
論文 参考訳(メタデータ) (2022-12-12T14:25:40Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。