論文の概要: Agentic Very Long Video Understanding
- arxiv url: http://arxiv.org/abs/2601.18157v1
- Date: Mon, 26 Jan 2026 05:20:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.688452
- Title: Agentic Very Long Video Understanding
- Title(参考訳): エージェントによる極端に長いビデオ理解
- Authors: Aniket Rege, Arka Sadhu, Yuliang Li, Kejie Li, Ramya Korlakai Vinayak, Yuning Chai, Yong Jae Lee, Hyo Jin Kim,
- Abstract要約: EGAgentはエンティティシーングラフを中心とした強化されたエージェントフレームワークで、時間とともに人、場所、オブジェクト、それらの関係を表現する。
提案システムは,これらのグラフに対する構造化検索と推論のためのツールと,視覚と音声のハイブリッド検索機能を備えており,詳細な,横断的,時間的に整合した推論を可能にする。
EgoLifeQA と Video-MME (Long) のデータセットから,EgoLifeQA (57.5%) の最先端性能と,複雑な長手ビデオ理解タスクにおける Video-MME (74.1%) の競合性能が得られた。
- 参考スコア(独自算出の注目度): 39.34545320553102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of always-on personal AI assistants, enabled by all-day wearable devices such as smart glasses, demands a new level of contextual understanding, one that goes beyond short, isolated events to encompass the continuous, longitudinal stream of egocentric video. Achieving this vision requires advances in long-horizon video understanding, where systems must interpret and recall visual and audio information spanning days or even weeks. Existing methods, including large language models and retrieval-augmented generation, are constrained by limited context windows and lack the ability to perform compositional, multi-hop reasoning over very long video streams. In this work, we address these challenges through EGAgent, an enhanced agentic framework centered on entity scene graphs, which represent people, places, objects, and their relationships over time. Our system equips a planning agent with tools for structured search and reasoning over these graphs, as well as hybrid visual and audio search capabilities, enabling detailed, cross-modal, and temporally coherent reasoning. Experiments on the EgoLifeQA and Video-MME (Long) datasets show that our method achieves state-of-the-art performance on EgoLifeQA (57.5%) and competitive performance on Video-MME (Long) (74.1%) for complex longitudinal video understanding tasks.
- Abstract(参考訳): スマートグラスのような一日中ウェアラブルデバイスによって実現される、常時オンのパーソナルAIアシスタントの出現は、コンテキスト理解の新たなレベルを要求する。
このビジョンを達成するためには、長い水平ビデオ理解の進歩が必要である。
大規模な言語モデルや検索拡張生成を含む既存の手法は、限られたコンテキストウィンドウによって制約され、非常に長いビデオストリームに対して構成的でマルチホップな推論を行う能力が欠如している。
本研究では,人間,場所,オブジェクト,およびそれらの関係を時間とともに表現するエンティティシーングラフを中心としたエージェントフレームワークであるEGAgentを通じて,これらの課題に対処する。
提案システムは,これらのグラフに対する構造化検索と推論のためのツールと,視覚と音声のハイブリッド検索機能を備えており,詳細な,横断的,時間的に整合した推論を可能にする。
EgoLifeQA と Video-MME (Long) のデータセットを用いた実験により,EgoLifeQA (57.5%) の最先端性能とビデオ-MME (Long) (74.1%) の競合性能を複雑な長手ビデオ理解タスクに適用した。
関連論文リスト
- Infinite Video Understanding [50.78256932424239]
Infinite Video Understandingをブルースキー研究の目的とするフレーミングは、マルチメディアにとって重要な北の星となると我々は主張する。
我々は、この変革能力を達成するための主要な課題と研究の方向性を概説する。
論文 参考訳(メタデータ) (2025-07-11T23:07:04Z) - Deep Video Discovery: Agentic Search with Tool Use for Long-form Video Understanding [60.88843818016968]
長時間のビデオ理解は時間空間の複雑さと質問応答の難しさによって大きな課題を呈する。
セグメント化されたビデオクリップ上でのエージェント検索戦略を活用するために,Deep Video Discovery (DVD) エージェントを提案する。
当社のDVDエージェントは,LVBenchデータセット上での最先端性能を実現し,74.2%の精度を実現した。
論文 参考訳(メタデータ) (2025-05-23T16:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。