論文の概要: FBK-HUPBA Submission to the EPIC-Kitchens Action Recognition 2020
Challenge
- arxiv url: http://arxiv.org/abs/2006.13725v1
- Date: Wed, 24 Jun 2020 13:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 12:59:29.867246
- Title: FBK-HUPBA Submission to the EPIC-Kitchens Action Recognition 2020
Challenge
- Title(参考訳): fbk-hupbaがepic-kitchens action recognition 2020チャレンジに参加
- Authors: Swathikiran Sudhakaran, Sergio Escalera, Oswald Lanz
- Abstract要約: EPIC-Kitchens Action Recognition 2020 Challengeへの提出の技術的詳細について述べる。
提案手法は,S1では40.0%,S2では21%,RGBでは21%であった。
- 参考スコア(独自算出の注目度): 43.8525418821458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this report we describe the technical details of our submission to the
EPIC-Kitchens Action Recognition 2020 Challenge. To participate in the
challenge we deployed spatio-temporal feature extraction and aggregation models
we have developed recently: Gate-Shift Module (GSM) [1] and EgoACO, an
extension of Long Short-Term Attention (LSTA) [2]. We design an ensemble of GSM
and EgoACO model families with different backbones and pre-training to generate
the prediction scores. Our submission, visible on the public leaderboard with
team name FBK-HUPBA, achieved a top-1 action recognition accuracy of 40.0% on
S1 setting, and 25.71% on S2 setting, using only RGB.
- Abstract(参考訳): 本報告では,EPIC-Kitchens Action Recognition 2020 Challengeへの提出の技術的詳細について述べる。
私たちが最近開発した時空間的特徴抽出と集約モデルであるgate-shift module (gsm) [1]と、long short-term attention (lsta) [2]の拡張であるegoacoをデプロイした。
我々は,GSMとEgoACOモデルファミリーのアンサンブルを,異なるバックボーンと事前学習を用いて設計し,予測スコアを生成する。
チーム名はFBK-HUPBAであり,S1設定では40.0%,S2設定では25.71%,RGB設定では25.71%であった。
関連論文リスト
- Predicting the Next Action by Modeling the Abstract Goal [18.873728614415946]
本研究では,将来の予測の不確実性を低減するために,目標情報を活用する行動予測モデルを提案する。
我々は,行動予測のための視覚的特徴の観察シーケンスに基づいて,抽象目標という新しい概念を導出する。
提案手法は,Epic-Kitchens55 (EK55), EK100, EGTEA Gaze+データセットについて,非常に困難な結果を得た。
論文 参考訳(メタデータ) (2022-09-12T06:52:42Z) - NVIDIA-UNIBZ Submission for EPIC-KITCHENS-100 Action Anticipation
Challenge 2022 [13.603712913129506]
EPIC-Kitchen-100アクション予測課題の技術的詳細について述べる。
我々のモデリング、高次の時空変換器、エッジ学習を用いたメッセージパスニューラルネットワークはどちらも、2.5秒の推論コンテキストのみを観測し、アクション予測予測を形成するリカレントベースアーキテクチャである。
提案したトレーニングパイプラインでコンパイルされたモデルの予測スコアを平均化することにより、テストセット上で強力なパフォーマンスを実現しました。
論文 参考訳(メタデータ) (2022-06-22T06:34:58Z) - End-to-End Zero-Shot HOI Detection via Vision and Language Knowledge
Distillation [86.41437210485932]
我々は、ゼロショットHOI検出を前進させ、同時に見えないHOIと見えないHOIの両方を検出することを目指している。
本稿では,視覚言語による知識蒸留によるエンドツーエンドのゼロショットHOI検出フレームワークを提案する。
本手法は, 従来のSOTAを8.92%, 全体の10.18%で上回っている。
論文 参考訳(メタデータ) (2022-04-01T07:27:19Z) - SAIC_Cambridge-HuPBA-FBK Submission to the EPIC-Kitchens-100 Action
Recognition Challenge 2021 [80.05652375838073]
本報告では,EPIC-Kitchens-100 Action Recognition Challenge 2021への提出の技術的詳細について述べる。
我々の提出は、公共のリーダーボードで見ることができ、RGBのみを使用して、44.82%のトップ1の行動認識精度を達成した。
論文 参考訳(メタデータ) (2021-10-06T16:29:47Z) - TransAction: ICL-SJTU Submission to EPIC-Kitchens Action Anticipation
Challenge 2021 [42.35018041385645]
我々は行動予測のための階層的注意モデルを開発した。
平均トップ5 アクションのリコールに関しては、チーム名 ICL-SJTU が13.39% に達した。
以下の3つの(部分)集合の中で、動詞のクラスで1位にランクされたことは注目に値する。
論文 参考訳(メタデータ) (2021-07-28T10:42:47Z) - Two-Stream Consensus Network: Submission to HACS Challenge 2021
Weakly-Supervised Learning Track [78.64815984927425]
弱い監督による時間的行動ローカライゼーションの目標は、ビデオの興味ある動作を時間的に特定し、分類することである。
この課題では,2ストリームコンセンサスネットワーク(TSCN)を主要なフレームワークとして採用しています。
この課題では,本手法が今後の学術研究のベースラインとなることを期待して,第2位にランクインした。
論文 参考訳(メタデータ) (2021-06-21T03:36:36Z) - Joint COCO and Mapillary Workshop at ICCV 2019: COCO Instance
Segmentation Challenge Track [87.90450014797287]
MegDetV2は2パス方式で動作し、まずインスタンスを検出し、次にセグメンテーションを取得する。
COCO-2019 検出/インスタンス分割テスト-dev データセットでは,2018 年の勝率それぞれ 5.0/4.2 を上回った 61.0/53.1 mAP を達成した。
論文 参考訳(メタデータ) (2020-10-06T04:49:37Z) - Rescaling Egocentric Vision [48.57283024015145]
本稿では,エゴセントリックビジョンにおける最大のデータセットであるEPIC-KITCHENSを拡張するパイプラインを紹介する。
この取り組みは、100時間20Mフレーム、700の可変長ビデオの90KアクションからなるEPIC-KITCHENS-100で頂点に達した。
EPIC-KITCHENS-100は以前のバージョンと比較して、より密度の高い(毎分54%のアクション)アクションとより完全なアクションアノテーション(+128%以上のアクションセグメント)を可能にする新しいパイプラインを使用して注釈付けされている。
論文 参考訳(メタデータ) (2020-06-23T18:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。