論文の概要: Team VI-I2R Technical Report on EPIC-KITCHENS-100 Unsupervised Domain
Adaptation Challenge for Action Recognition 2021
- arxiv url: http://arxiv.org/abs/2206.02573v1
- Date: Fri, 3 Jun 2022 07:37:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 14:03:56.982166
- Title: Team VI-I2R Technical Report on EPIC-KITCHENS-100 Unsupervised Domain
Adaptation Challenge for Action Recognition 2021
- Title(参考訳): EPIC-KITCHENS-100 Unsupervised Domain Adaptation Challenge for Action Recognition 2021 参加報告
- Authors: Yi Cheng, Fen Fang, Ying Sun
- Abstract要約: EPIC-KITCHENS-100データセットは、人間の手と周囲の物体との相互作用に焦点を当てた日常的なキッチン活動で構成されている。
オブジェクトや視覚的に類似したアクションクラスが存在するため、これらのきめ細かいアクティビティを正確に認識することは極めて困難である。
そこで我々は,UDAのハンドバウンディングボックス情報を利用して,手中心の特徴を学習することを提案する。
提案手法は,RGBと光フローモードのみを入力として,トップ1の動作認識精度で第1位を達成した。
- 参考スコア(独自算出の注目度): 6.614021153407064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this report, we present the technical details of our approach to the
EPIC-KITCHENS-100 Unsupervised Domain Adaptation (UDA) Challenge for Action
Recognition. The EPIC-KITCHENS-100 dataset consists of daily kitchen activities
focusing on the interaction between human hands and their surrounding objects.
It is very challenging to accurately recognize these fine-grained activities,
due to the presence of distracting objects and visually similar action classes,
especially in the unlabelled target domain. Based on an existing method for
video domain adaptation, i.e., TA3N, we propose to learn hand-centric features
by leveraging the hand bounding box information for UDA on fine-grained action
recognition. This helps reduce the distraction from background as well as
facilitate the learning of domain-invariant features. To achieve high quality
hand localization, we adopt an uncertainty-aware domain adaptation network,
i.e., MEAA, to train a domain-adaptive hand detector, which only uses very
limited hand bounding box annotations in the source domain but can generalize
well to the unlabelled target domain. Our submission achieved the 1st place in
terms of top-1 action recognition accuracy, using only RGB and optical flow
modalities as input.
- Abstract(参考訳): 本稿では、epic-kitchens-100unsupervised domain adaptation (uda) challenge for action recognitionに関する技術的詳細を紹介する。
EPIC-KITCHENS-100データセットは、人間の手と周囲の物体との相互作用に焦点を当てた日常的なキッチン活動で構成されている。
オブジェクトや視覚的に類似したアクションクラスが存在するため、特に乱れのないターゲットドメインにおいて、これらのきめ細かいアクティビティを正確に認識することは非常に困難である。
ビデオ領域適応のための既存の手法,すなわちTA3Nに基づいて,UDAのハンドバウンディングボックス情報を微細な動作認識に活用して手中心の特徴を学習することを提案する。
これは背景からの気晴らしを減らし、ドメイン不変の機能の学習を促進するのに役立つ。
高品質なハンドローカライズを実現するために,不確実性認識型ドメイン適応ネットワーク,すなわちmeaaを用いて,ソースドメイン内で非常に限定されたハンドバウンディングボックスアノテーションのみを使用するが,ラベルなしのターゲットドメインにうまく一般化可能なドメイン適応型ハンド検出器を訓練する。
提案手法は,RGBと光フローモードのみを入力として,トップ1の動作認識精度で第1位を達成した。
関連論文リスト
- GrabDAE: An Innovative Framework for Unsupervised Domain Adaptation Utilizing Grab-Mask and Denoise Auto-Encoder [16.244871317281614]
Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインでトレーニングされたモデルを、ドメインシフトに対処することによってラベルなしのターゲットドメインに適応することを目的としている。
視覚分類タスクのドメインシフトに対処するために設計された,革新的なUDAフレームワークであるGrabDAEを紹介する。
論文 参考訳(メタデータ) (2024-10-10T15:19:57Z) - Team VI-I2R Technical Report on EPIC-KITCHENS-100 Unsupervised Domain
Adaptation Challenge for Action Recognition 2022 [6.561596502471905]
本稿では,EPIC-KITCHENS-100 Unsupervised Domain Adaptation Challenge for Action Recognition 2022について述べる。
このタスクは、ラベル付きソースドメインでトレーニングされたアクション認識モデルをラベルなしターゲットドメインに適応することを目的としている。
最終提出はトップ1の行動認識精度で第1位を獲得しました。
論文 参考訳(メタデータ) (2023-01-29T12:29:24Z) - Adversarial Domain Adaptation for Action Recognition Around the Clock [0.7614628596146599]
本稿では,ドメイン適応に基づく行動認識手法を提案する。
クロスドメイン設定での敵対的学習を使用して、クロスドメインアクション認識を学習する。
InFARおよびXD145アクションデータセット上でのSOTAパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-25T01:08:27Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z) - Audio-Adaptive Activity Recognition Across Video Domains [112.46638682143065]
ドメイン間のばらつきが少なく、どのアクティビティが起こっていないかを確実に示すことができるので、ドメイン適応のためにアクティビティサウンドを活用します。
視覚特徴表現を識別的に調整するオーディオ適応型エンコーダと学習方法を提案する。
また、アクターシフトという新たなタスクを対応するオーディオ・ビジュアル・データセットで導入し、アクターの出現が劇的に変化する状況において、我々の手法に挑戦する。
論文 参考訳(メタデータ) (2022-03-27T08:15:20Z) - Decompose to Adapt: Cross-domain Object Detection via Feature
Disentanglement [79.2994130944482]
本研究では,DDF(Domain Disentanglement Faster-RCNN)を設計し,タスク学習のための特徴のソース固有情報を排除した。
DDF法は,グローバルトリプルト・ディアンタングルメント(GTD)モジュールとインスタンス類似性・ディアンタングルメント(ISD)モジュールを用いて,グローバルおよびローカルステージでの機能ディアンタングルを容易にする。
提案手法は,4つのUDAオブジェクト検出タスクにおいて最先端の手法より優れており,広い適用性で有効であることが実証された。
論文 参考訳(メタデータ) (2022-01-06T05:43:01Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Learning Cross-modal Contrastive Features for Video Domain Adaptation [138.75196499580804]
本稿では、クロスモーダルとクロスドメインの特徴表現を同時に正規化する、ビデオドメイン適応のための統合フレームワークを提案する。
具体的には、ドメインの各モダリティを視点として扱い、コントラスト学習手法を適切に設計されたサンプリング戦略で活用する。
論文 参考訳(メタデータ) (2021-08-26T18:14:18Z) - PoliTO-IIT Submission to the EPIC-KITCHENS-100 Unsupervised Domain
Adaptation Challenge for Action Recognition [15.545769463854915]
本報告では,EPIC-Kitchens-100 Unsupervised Domain Adaptation (UDA) Challenge in Action Recognitionについて述べる。
我々は、Relative Norm Alignment (RNA)と呼ばれる最近のドメイン一般化(DG)技術を利用した。
第2のフェーズでは、非競合対象データに対するアプローチを拡張し、教師なしの方法で対象分布に適応できるようにした。
私たちの提出(エントリー「plnet」)は、リーダーボードに表示され、"verb"で1位、"noun"と"action"で3位に達した。
論文 参考訳(メタデータ) (2021-07-01T10:02:44Z) - Surprisingly Simple Semi-Supervised Domain Adaptation with Pretraining
and Consistency [93.89773386634717]
ビジュアルドメイン適応は、異なるソースドメインで利用可能なラベルを使用して、ターゲットのビジュアルドメインからイメージを分類する学習を含む。
いくつかの目標ラベルが存在する場合、(回転予測による)自己スーパービジョンや整合正則化といった単純な手法が、適切な目標分類器を学習するための対角アライメントなしで有効であることを示す。
我々の事前学習と一貫性(PAC)アプローチは、この半教師付きドメイン適応タスクにおいて、複数のデータセットにまたがる複数の対向的なドメインアライメント手法を超越して、技術精度を達成することができる。
論文 参考訳(メタデータ) (2021-01-29T18:40:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。