論文の概要: Action Sensitivity Learning for the Ego4D Episodic Memory Challenge 2023
- arxiv url: http://arxiv.org/abs/2306.09172v2
- Date: Mon, 25 Sep 2023 12:11:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 02:09:19.593770
- Title: Action Sensitivity Learning for the Ego4D Episodic Memory Challenge 2023
- Title(参考訳): Ego4D Episodic Memory Challenge 2023における行動感性学習
- Authors: Jiayi Shao and Xiaohan Wang and Ruijie Quan and Yi Yang
- Abstract要約: 本稿では、CVPR 2023のEgo4D Episodic Memory Benchmarkの2つのトラックにReLERを提出する。
この手法は提案したASL(Action Sensitivity Learning framework)を継承し,フレームの分散情報をよりよく取得する。
- 参考スコア(独自算出の注目度): 41.10032280192564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report presents ReLER submission to two tracks in the Ego4D Episodic
Memory Benchmark in CVPR 2023, including Natural Language Queries and Moment
Queries. This solution inherits from our proposed Action Sensitivity Learning
framework (ASL) to better capture discrepant information of frames. Further, we
incorporate a series of stronger video features and fusion strategies. Our
method achieves an average mAP of 29.34, ranking 1st in Moment Queries
Challenge, and garners 19.79 mean R1, ranking 2nd in Natural Language Queries
Challenge. Our code will be released.
- Abstract(参考訳): 本稿では,自然言語クエリとモーメントクエリを含むCVPR 2023のEgo4D Episodic Memory Benchmarkの2つのトラックにReLERを提出する。
この手法は提案したASL(Action Sensitivity Learning framework)を継承し,フレームの分散情報をよりよく取得する。
さらに,より強力なビデオ機能と融合戦略が組み込まれている。
提案手法は,モーメントクエリチャレンジでは1位,自然言語クエリチャレンジでは19.79平均r1,29.34の平均マップを達成している。
私たちのコードはリリースされます。
関連論文リスト
- ObjectNLQ @ Ego4D Episodic Memory Challenge 2024 [51.57555556405898]
本稿では,CVPR 2024におけるEgo4D Episodic Memory Benchmarkの自然言語クエリトラックとゴールステップトラックについて紹介する。
どちらの課題も、テキストクエリを使って長いビデオシーケンス内のアクションをローカライズする必要がある。
我々は、オブジェクトブランチを組み込んだ新しいアプローチObjectNLQを導入し、ビデオ表現を詳細なオブジェクト情報で拡張する。
論文 参考訳(メタデータ) (2024-06-22T07:57:58Z) - 1st Place Solution for MeViS Track in CVPR 2024 PVUW Workshop: Motion Expression guided Video Segmentation [81.50620771207329]
ビデオオブジェクトセグメンテーション(RVOS)における静的支配データとフレームサンプリングの有効性について検討する。
本手法は,競技段階でのJ&Fスコア0.5447を達成し,PVUWチャレンジのMeViSトラックで1位となった。
論文 参考訳(メタデータ) (2024-06-11T08:05:26Z) - NTIRE 2024 Challenge on Image Super-Resolution ($\times$4): Methods and Results [126.78130602974319]
画像の超高解像度化に関するNTIRE 2024の課題(4ドル)をレビューする。
この課題は、低解像度(LR)入力から4倍の倍率で対応する高解像度(HR)画像を生成することである。
この挑戦の目的は、最も先進的なSR性能を持つ設計/解決を得ることである。
論文 参考訳(メタデータ) (2024-04-15T13:45:48Z) - NMS Threshold matters for Ego4D Moment Queries -- 2nd place solution to
the Ego4D Moment Queries Challenge 2023 [8.674624972031387]
本報告では,Ego4D Moment Queries Challenge 2023について述べる。
私たちの提案では、時間的アクションローカライゼーションの最新のメソッドであるActionFormerを拡張しています。
私たちのソリューションは、平均mAPが26.62%、テストセットがtIoU=0.5で45.69%のRecall@1xで公開リーダボードで2位にランクされ、2023年の挑戦から強いベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2023-07-05T05:23:49Z) - 1st Place Solution for PVUW Challenge 2023: Video Panoptic Segmentation [25.235404527487784]
ビデオパノプティクスのセグメンテーションは、多くのダウンストリームアプリケーションの基礎となる難しいタスクである。
DVISが提案するデカップリング戦略は,時間情報をより効果的に活用できると考えている。
第2回PVUWチャレンジのVPSトラックでは,それぞれ51.4と53.7のVPQスコアを達成し,第2回PVUWチャレンジのVPSトラックで第1位となった。
論文 参考訳(メタデータ) (2023-06-07T01:24:48Z) - APRIL-GAN: A Zero-/Few-Shot Anomaly Classification and Segmentation
Method for CVPR 2023 VAND Workshop Challenge Tracks 1&2: 1st Place on
Zero-shot AD and 4th Place on Few-shot AD [21.493718012180643]
本稿では,視覚異常・ノベルティ検出(VAND)2023チャレンジのZero/Few-shot Trackに対する解決策を提案する。
提案手法はゼロショットトラックにおいて,特にセグメンテーションにおいて優れていた。
数ショットのトラックでは、F1の分類スコアが全参加チームの中で第1位となり、総合4位を確保しました。
論文 参考訳(メタデータ) (2023-05-27T06:24:43Z) - ReLER@ZJU-Alibaba Submission to the Ego4D Natural Language Queries
Challenge 2022 [61.81899056005645]
ビデオクリップとテキストクエリが与えられた場合、この課題のゴールは、クエリに対する回答が得られるビデオクリップの時間的モーメントを見つけることである。
本稿では,言語クエリとビデオクリップの相関関係を明らかにするために,マルチスケールのクロスモーダル変換器とビデオフレームレベルのコントラスト損失を提案する。
実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-07-01T12:48:35Z) - Exploiting Semantic Role Contextualized Video Features for
Multi-Instance Text-Video Retrieval EPIC-KITCHENS-100 Multi-Instance
Retrieval Challenge 2022 [72.12974259966592]
EPIC-KITCHENS-100 Multi-Instance Retrieval Challenge 2022について述べる。
まず、文を動詞や名詞に対応する意味的役割にパースし、自己意図を利用して意味的役割の文脈化されたビデオ特徴を利用する。
論文 参考訳(メタデータ) (2022-06-29T03:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。