論文の概要: Multi-modal Instance Refinement for Cross-domain Action Recognition
- arxiv url: http://arxiv.org/abs/2311.14281v1
- Date: Fri, 24 Nov 2023 05:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 16:03:51.187112
- Title: Multi-modal Instance Refinement for Cross-domain Action Recognition
- Title(参考訳): クロスドメイン動作認識のためのマルチモーダルインスタンスの改良
- Authors: Yuan Qing, Naixing Wu, Shaohua Wan, Lixin Duan
- Abstract要約: 教師なしのクロスドメインアクション認識は、既存のラベル付きソースドメインでトレーニングされたモデルを新しいラベル付きターゲットドメインに適応させることを目的としている。
強化学習に基づく負の伝達を軽減するために,MMIR法を提案する。
提案手法は,EPIC-Kitchensベンチマークを用いたクロスドメイン動作認識において,他の最先端のベースラインよりも優れている。
- 参考スコア(独自算出の注目度): 25.734898762987083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised cross-domain action recognition aims at adapting the model
trained on an existing labeled source domain to a new unlabeled target domain.
Most existing methods solve the task by directly aligning the feature
distributions of source and target domains. However, this would cause negative
transfer during domain adaptation due to some negative training samples in both
domains. In the source domain, some training samples are of low-relevance to
target domain due to the difference in viewpoints, action styles, etc. In the
target domain, there are some ambiguous training samples that can be easily
classified as another type of action under the case of source domain. The
problem of negative transfer has been explored in cross-domain object
detection, while it remains under-explored in cross-domain action recognition.
Therefore, we propose a Multi-modal Instance Refinement (MMIR) method to
alleviate the negative transfer based on reinforcement learning. Specifically,
a reinforcement learning agent is trained in both domains for every modality to
refine the training data by selecting out negative samples from each domain.
Our method finally outperforms several other state-of-the-art baselines in
cross-domain action recognition on the benchmark EPIC-Kitchens dataset, which
demonstrates the advantage of MMIR in reducing negative transfer.
- Abstract(参考訳): unsupervised cross-domain action recognitionは、既存のラベル付きソースドメインでトレーニングされたモデルを、新しいラベルなしターゲットドメインに適応させることを目的としている。
既存のほとんどのメソッドは、ソースとターゲットドメインの特徴分布を直接調整することで、タスクを解決する。
しかし、これは両方のドメインの負のトレーニングサンプルによって、ドメイン適応中に負の転送を引き起こす。
ソースドメインでは、いくつかのトレーニングサンプルは、視点やアクションスタイルなどの違いにより、ターゲットドメインと低い関係にある。
ターゲットドメインには、ソースドメインの場合、容易に別のタイプのアクションとして分類できる曖昧なトレーニングサンプルがいくつかあります。
負の転送の問題はクロスドメインオブジェクト検出で検討されているが、クロスドメインアクション認識では未検討のままである。
そこで本研究では,強化学習に基づく負の伝達を緩和するマルチモーダル・インスタンス・リファインメント(mmir)手法を提案する。
具体的には、各ドメインから負のサンプルを選択して訓練データを洗練するために、各モダリティごとに強化学習エージェントを両ドメインで訓練する。
提案手法は,ベンチマークEPIC-Kitchensデータセット上でのクロスドメイン動作認識において,他の最先端のベースラインよりも優れており,これは負の転送を減らすためのMMIRの利点を示している。
関連論文リスト
- Contrastive Adversarial Training for Unsupervised Domain Adaptation [2.432037584128226]
様々なドメイン適応タスクにおいて、ドメイン逆行訓練がうまく採用されている。
大規模なモデルでは、敵のトレーニングがソースドメインに偏りやすく、ターゲットドメインにはほとんど適応しない。
本稿では、ラベル付きソースドメインのサンプルを利用して、ターゲットドメインの機能生成を強化・調整するコントラッシブ・逆行訓練(CAT)手法を提案する。
論文 参考訳(メタデータ) (2024-07-17T17:59:21Z) - Unsupervised Cross-Domain Rumor Detection with Contrastive Learning and
Cross-Attention [0.0]
大量の噂は、ニュースやトレンドの話題と共に現れ、真相を著しく妨げている。
既存の噂検出手法は、ほとんど同じドメインに焦点を合わせているので、クロスドメインのシナリオでは性能が劣る。
本稿では,クロスドメインなうわさ検出のためのクロスアテンション機構を備えた,エンドツーエンドのインスタンス・ワイドおよびプロトタイプ・コントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2023-03-20T06:19:49Z) - Target Domain Data induces Negative Transfer in Mixed Domain Training
with Disjoint Classes [1.933681537640272]
現実的なシナリオでは、ターゲットドメイン内で利用可能なトレーニングデータが限られた数のクラスに限られている場合が多い。
対象ドメインと代理ドメインの間に不整合クラスが存在する場合、トレーニング中のターゲットドメインを含めると、大きな負の遷移が生じることを示す。
論文 参考訳(メタデータ) (2023-03-02T06:44:21Z) - Exploiting Instance-based Mixed Sampling via Auxiliary Source Domain
Supervision for Domain-adaptive Action Detection [75.38704117155909]
本稿では,新しいドメイン適応型行動検出手法と新しい適応プロトコルを提案する。
クロスドメイン混合サンプリングと組み合わせた自己学習は、UDAコンテキストにおいて顕著なパフォーマンス向上を示した。
我々は提案したフレームワークをドメイン適応アクション・インスタンス・ミックス(DA-AIM)と呼ぶ。
論文 参考訳(メタデータ) (2022-09-28T22:03:25Z) - Multilevel Knowledge Transfer for Cross-Domain Object Detection [26.105283273950942]
ドメインシフトは、特定のドメイン(ソース)でトレーニングされたモデルが、異なるドメイン(ターゲット)のサンプルに露出しても、うまく動作しない、よく知られた問題である。
本研究では,オブジェクト検出タスクにおける領域シフト問題に対処する。
私たちのアプローチは、ソースとターゲットドメイン間のドメインシフトを徐々に削除することに依存しています。
論文 参考訳(メタデータ) (2021-08-02T15:24:40Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z) - Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels [78.95901454696158]
ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
論文 参考訳(メタデータ) (2020-03-18T15:11:07Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z) - Unsupervised Domain Adaptive Object Detection using Forward-Backward
Cyclic Adaptation [13.163271874039191]
本稿では,フォワード・バック・サイクリック(FBC)トレーニングによる物体検出のための教師なし領域適応手法を提案する。
近年, 対角訓練に基づく領域適応法は, 限界特徴分布アライメントによる領域差最小化に有効であることが示された。
本稿では,後方ホッピングによるソースからターゲットへの適応と,前方通過によるターゲットからソースへの適応を反復的に計算するフォワード・バック・サイクル適応を提案する。
論文 参考訳(メタデータ) (2020-02-03T06:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。