論文の概要: Team VI-I2R Technical Report on EPIC-KITCHENS-100 Unsupervised Domain
Adaptation Challenge for Action Recognition 2022
- arxiv url: http://arxiv.org/abs/2301.12436v1
- Date: Sun, 29 Jan 2023 12:29:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 17:05:18.999422
- Title: Team VI-I2R Technical Report on EPIC-KITCHENS-100 Unsupervised Domain
Adaptation Challenge for Action Recognition 2022
- Title(参考訳): EPIC-KITCHENS-100 Unsupervised Domain Adaptation Challenge for Action Recognition 2022 参加報告
- Authors: Yi Cheng, Dongyun Lin, Fen Fang, Hao Xuan Woon, Qianli Xu, Ying Sun
- Abstract要約: 本稿では,EPIC-KITCHENS-100 Unsupervised Domain Adaptation Challenge for Action Recognition 2022について述べる。
このタスクは、ラベル付きソースドメインでトレーニングされたアクション認識モデルをラベルなしターゲットドメインに適応することを目的としている。
最終提出はトップ1の行動認識精度で第1位を獲得しました。
- 参考スコア(独自算出の注目度): 6.561596502471905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this report, we present the technical details of our submission to the
EPIC-KITCHENS-100 Unsupervised Domain Adaptation (UDA) Challenge for Action
Recognition 2022. This task aims to adapt an action recognition model trained
on a labeled source domain to an unlabeled target domain. To achieve this goal,
we propose an action-aware domain adaptation framework that leverages the prior
knowledge induced from the action recognition task during the adaptation.
Specifically, we disentangle the source features into action-relevant features
and action-irrelevant features using the learned action classifier and then
align the target features with the action-relevant features. To further improve
the action prediction performance, we exploit the verb-noun co-occurrence
matrix to constrain and refine the action predictions. Our final submission
achieved the first place in terms of top-1 action recognition accuracy.
- Abstract(参考訳): 本稿では,epic-kitchens-100unsupervised domain adaptation (uda) challenge for action recognition 2022の技術的詳細を紹介する。
このタスクはラベル付きソースドメインでトレーニングされたアクション認識モデルをラベルなしターゲットドメインに適応させることを目的としている。
この目的を達成するために,行動認識タスクから引き起こされる事前知識を活用した行動認識ドメイン適応フレームワークを提案する。
具体的には、学習したアクション分類器を用いて、ソース特徴をアクション関連特徴とアクション関連特徴に分解し、ターゲット特徴とアクション関連特徴を整列する。
行動予測性能をさらに向上するため,動詞の共起行列を用いて行動予測の制約と改善を行う。
最終提出はトップ1の行動認識精度で第1位を獲得しました。
関連論文リスト
- Localizing Active Objects from Egocentric Vision with Symbolic World
Knowledge [62.981429762309226]
タスクの指示をエゴセントリックな視点から積極的に下す能力は、AIエージェントがタスクを達成したり、人間をバーチャルに支援する上で不可欠である。
本稿では,現在進行中のオブジェクトの役割を学習し,指示から正確に抽出することで,アクティブなオブジェクトをローカライズするフレーズグラウンドモデルの性能を向上させることを提案する。
Ego4DおよびEpic-Kitchensデータセットに関するフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-23T16:14:05Z) - EPIC-KITCHENS-100 Unsupervised Domain Adaptation Challenge: Mixed
Sequences Prediction [16.92053939360415]
本報告では,EPIC-Kitchens-100 Unsupervised Domain Adaptation (UDA) Challenge in Action Recognitionの技術的詳細について述べる。
我々のアプローチは、アクションが実行される順序がソースドメインとターゲットドメインに類似しているという考え方に基づいている。
我々は、ソースドメインとターゲットドメインからのアクションをランダムに組み合わせて修正シーケンスを生成する。
論文 参考訳(メタデータ) (2023-07-24T14:35:46Z) - A Study on Differentiable Logic and LLMs for EPIC-KITCHENS-100
Unsupervised Domain Adaptation Challenge for Action Recognition 2023 [23.323548254515494]
本研究では,EPIC-KITCHENS-100 Unsupervised Domain Adaptation task for Action Recognitionについて検討した。
本研究は,動詞と名詞の共起関係を生かした学習における相異なる論理損失の革新的応用に焦点を当てた。
我々の最終提出(NS-LLM')は、トップ1アクション認識の精度で第1位を獲得しました。
論文 参考訳(メタデータ) (2023-07-13T05:54:05Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Transformer-based Action recognition in hand-object interacting
scenarios [6.679721418508601]
本報告では,Egocentric and Multi-view Cameras Challenge: Action RecognitionによるECCV 2022 Human Body, Hands, and Activity (HBHA)の2番目のソリューションについて述べる。
本稿では,両手とトランスフォーマーを用いたキーポイント推定器を用いたオブジェクトのキーポイントを推定し,推定したキーポイントに基づいて動作を認識するフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-20T16:27:37Z) - Team VI-I2R Technical Report on EPIC-KITCHENS-100 Unsupervised Domain
Adaptation Challenge for Action Recognition 2021 [6.614021153407064]
EPIC-KITCHENS-100データセットは、人間の手と周囲の物体との相互作用に焦点を当てた日常的なキッチン活動で構成されている。
オブジェクトや視覚的に類似したアクションクラスが存在するため、これらのきめ細かいアクティビティを正確に認識することは極めて困難である。
そこで我々は,UDAのハンドバウンディングボックス情報を利用して,手中心の特徴を学習することを提案する。
提案手法は,RGBと光フローモードのみを入力として,トップ1の動作認識精度で第1位を達成した。
論文 参考訳(メタデータ) (2022-06-03T07:37:48Z) - Labeling Where Adapting Fails: Cross-Domain Semantic Segmentation with
Point Supervision via Active Selection [81.703478548177]
セマンティックセグメンテーションに特化したトレーニングモデルは、大量のピクセル単位のアノテートデータを必要とする。
教師なしドメイン適応手法は、ラベル付きソースとラベルなしターゲットデータとの間の特徴分布の整合化を目的としている。
以前の研究は、対象データにスパース単一ピクセルアノテーションという形で、人間のインタラクションをこのプロセスに含めようと試みていた。
アクティブな選択による注釈付きポイントを用いた意味的セグメンテーションのための新しいドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-01T01:52:28Z) - Audio-Adaptive Activity Recognition Across Video Domains [112.46638682143065]
ドメイン間のばらつきが少なく、どのアクティビティが起こっていないかを確実に示すことができるので、ドメイン適応のためにアクティビティサウンドを活用します。
視覚特徴表現を識別的に調整するオーディオ適応型エンコーダと学習方法を提案する。
また、アクターシフトという新たなタスクを対応するオーディオ・ビジュアル・データセットで導入し、アクターの出現が劇的に変化する状況において、我々の手法に挑戦する。
論文 参考訳(メタデータ) (2022-03-27T08:15:20Z) - PoliTO-IIT Submission to the EPIC-KITCHENS-100 Unsupervised Domain
Adaptation Challenge for Action Recognition [15.545769463854915]
本報告では,EPIC-Kitchens-100 Unsupervised Domain Adaptation (UDA) Challenge in Action Recognitionについて述べる。
我々は、Relative Norm Alignment (RNA)と呼ばれる最近のドメイン一般化(DG)技術を利用した。
第2のフェーズでは、非競合対象データに対するアプローチを拡張し、教師なしの方法で対象分布に適応できるようにした。
私たちの提出(エントリー「plnet」)は、リーダーボードに表示され、"verb"で1位、"noun"と"action"で3位に達した。
論文 参考訳(メタデータ) (2021-07-01T10:02:44Z) - ToAlign: Task-oriented Alignment for Unsupervised Domain Adaptation [84.90801699807426]
ドメイン間でアライメントすべき機能について検討し、ドメインアライメントが積極的に分類に役立てることを提案する。
我々は、ソースドメインの機能を、整列すべきタスク関連/識別機能と、回避/無視されるべきタスク関連機能に明示的に分解します。
論文 参考訳(メタデータ) (2021-06-21T02:17:48Z) - Off-Dynamics Reinforcement Learning: Training for Transfer with Domain
Classifiers [138.68213707587822]
強化学習におけるドメイン適応のためのシンプルで実践的で直感的なアプローチを提案する。
報酬関数を変更することで、力学の違いを補うことで、この目標を達成することができることを示す。
我々のアプローチは、連続状態とアクションを持つドメインに適用でき、ダイナミックスの明示的なモデルを学ぶ必要がない。
論文 参考訳(メタデータ) (2020-06-24T17:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。