論文の概要: OSGNet @ Ego4D Episodic Memory Challenge 2025
- arxiv url: http://arxiv.org/abs/2506.03710v1
- Date: Wed, 04 Jun 2025 08:41:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.239431
- Title: OSGNet @ Ego4D Episodic Memory Challenge 2025
- Title(参考訳): OSGNet @ Ego4D Episodic Memory Challenge 2025
- Authors: Yisen Feng, Haoyu Zhang, Qiaohui Chu, Meng Liu, Weili Guan, Yaowei Wang, Liqiang Nie,
- Abstract要約: CVPR 2025のEgo4D Episodic Memory Challengeにおいて,エゴセントリックな3つのビデオローカライゼーショントラックのチャンピオンソリューションを提案する。
我々は,3つのタスクすべてに取り組むために,初期核融合に基づくビデオローカライゼーションモデルを採用し,ローカライゼーションの精度を高めることを目的とした。
- 参考スコア(独自算出の注目度): 77.414837862995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this report, we present our champion solutions for the three egocentric video localization tracks of the Ego4D Episodic Memory Challenge at CVPR 2025. All tracks require precise localization of the interval within an untrimmed egocentric video. Previous unified video localization approaches often rely on late fusion strategies, which tend to yield suboptimal results. To address this, we adopt an early fusion-based video localization model to tackle all three tasks, aiming to enhance localization accuracy. Ultimately, our method achieved first place in the Natural Language Queries, Goal Step, and Moment Queries tracks, demonstrating its effectiveness. Our code can be found at https://github.com/Yisen-Feng/OSGNet.
- Abstract(参考訳): 本稿では,CVPR 2025のEgo4D Episodic Memory Challengeにおいて,エゴセントリックな3つのビデオローカライゼーショントラックのチャンピオンソリューションを提案する。
すべてのトラックは、トリミングされていないエゴセントリックなビデオ内の間隔を正確に位置決めする必要がある。
従来の統合ビデオローカライゼーションアプローチは、しばしば後期核融合戦略に依存しており、これは準最適結果をもたらす傾向にある。
そこで我々は,3つの課題すべてに取り組むために,初期核融合型ビデオローカライゼーションモデルを採用し,ローカライゼーションの精度を高めることを目的とした。
最終的に、我々の手法は自然言語クエリ、ゴールステップ、モーメントクエリのトラックで1位を獲得し、その効果を実証した。
私たちのコードはhttps://github.com/Yisen-Feng/OSGNetで参照できます。
関連論文リスト
- EgoVideo: Exploring Egocentric Foundation Model and Downstream Adaptation [54.32133648259802]
CVPR 2024のEgoVis Challengesには、Ego4Dチャレンジの5トラックとEPIC-Kitchensチャレンジの3トラックが含まれています。
ビデオ言語2towerモデルを構築し,厳密に整理された自我中心型ビデオデータを活用することにより,EgoVideoという新しい基礎モデルを導入する。
このモデルは、エゴセントリックなビデオの特徴に特化して設計されており、当社のコンペティションへの強力なサポートを提供する。
論文 参考訳(メタデータ) (2024-06-26T05:01:37Z) - ObjectNLQ @ Ego4D Episodic Memory Challenge 2024 [51.57555556405898]
本稿では,CVPR 2024におけるEgo4D Episodic Memory Benchmarkの自然言語クエリトラックとゴールステップトラックについて紹介する。
どちらの課題も、テキストクエリを使って長いビデオシーケンス内のアクションをローカライズする必要がある。
我々は、オブジェクトブランチを組み込んだ新しいアプローチObjectNLQを導入し、ビデオ表現を詳細なオブジェクト情報で拡張する。
論文 参考訳(メタデータ) (2024-06-22T07:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。