論文の概要: RiskCueBench: Benchmarking Anticipatory Reasoning from Early Risk Cues in Video-Language Models
- arxiv url: http://arxiv.org/abs/2601.03369v1
- Date: Tue, 06 Jan 2026 19:14:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.06519
- Title: RiskCueBench: Benchmarking Anticipatory Reasoning from Early Risk Cues in Video-Language Models
- Title(参考訳): RiskCueBench: ビデオランゲージモデルにおける早期リスクキューからの予測推論のベンチマーク
- Authors: Sha Luo, Yogesh Prabhu, Tim Ossowski, Kaiping Chen, Junjie Hu,
- Abstract要約: 我々は、リスク信号クリップを特定するためにビデオに慎重に注釈を付ける、新しいビデオ理解ベンチマークであるR RiskCueBenchを紹介した。
実験結果によると、現在のシステムでは、進化する状況を解釈し、早期視覚信号から将来の危険事象を予測できる能力に大きなギャップがあることが判明した。
- 参考スコア(独自算出の注目度): 4.858738694604317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid growth of video centered social media, the ability to anticipate risky events from visual data is a promising direction for ensuring public safety and preventing real world accidents. Prior work has extensively studied supervised video risk assessment across domains such as driving, protests, and natural disasters. However, many existing datasets provide models with access to the full video sequence, including the accident itself, which substantially reduces the difficulty of the task. To better reflect real world conditions, we introduce a new video understanding benchmark RiskCueBench in which videos are carefully annotated to identify a risk signal clip, defined as the earliest moment that indicates a potential safety concern. Experimental results reveal a significant gap in current systems ability to interpret evolving situations and anticipate future risky events from early visual signals, highlighting important challenges for deploying video risk prediction models in practice.
- Abstract(参考訳): ビデオ中心のソーシャルメディアの急速な成長により、視覚データから危険事象を予測できる能力は、公共の安全を確保し、現実世界の事故を防止できる有望な方向である。
以前の研究は、運転、抗議活動、自然災害などの領域で監督されたビデオリスクアセスメントを幅広く研究してきた。
しかし、既存のデータセットの多くは、事故自体を含むフルビデオシーケンスへのアクセスが可能なモデルを提供しており、タスクの難易度を大幅に低下させる。
現実世界の状況をよりよく反映するために、ビデオ理解ベンチマークであるR RiskCueBenchを導入し、ビデオに慎重に注釈を付けてリスク信号のクリップを識別する。
実験結果から,現在のシステム能力において,進化する状況を解釈し,早期視覚信号から将来の危険事象を予測できる重要なギャップが指摘され,実際にビデオリスク予測モデルをデプロイする上での重要な課題が浮き彫りにされている。
関連論文リスト
- AccidentBench: Benchmarking Multimodal Understanding and Reasoning in Vehicle Accidents and Beyond [101.20320617562321]
AccidentBenchは、自動車事故シナリオとBeyondドメインを組み合わせた大規模なベンチマークである。
このベンチマークには、約2000のビデオと19000以上の人間による質問応答ペアが含まれている。
論文 参考訳(メタデータ) (2025-09-30T17:59:13Z) - Understanding and Benchmarking the Trustworthiness in Multimodal LLMs for Video Understanding [59.50808215134678]
この研究では、23の最先端のビデオLLMを評価する最初の総合的なベンチマークであるTrust-videoLLMを紹介した。
その結果、動的シーン理解、クロスモーダルレジリエンス、現実世界のリスク軽減において、大きな制限が示された。
論文 参考訳(メタデータ) (2025-06-14T04:04:54Z) - Video-SafetyBench: A Benchmark for Safety Evaluation of Video LVLMs [45.265397990158846]
Video-SafetyBenchは、ビデオテキスト攻撃下でのLVLMの安全性を評価するために設計された最初のベンチマークである。
ビデオテキストのペアは2,264で、48のきめ細かいアンセーフなカテゴリにまたがっている。
安全性評価のためのセマンティックなビデオを生成するために,ビデオ意味論を主題画像とモーションテキストに分解する制御可能なパイプラインを設計する。
論文 参考訳(メタデータ) (2025-05-17T05:06:38Z) - OpenAI o1 System Card [274.83891368890977]
o1モデルシリーズは、思考の連鎖を用いて推論するために大規模な強化学習で訓練されている。
本報告では,OpenAI o1およびOpenAI o1-miniモデルに対して実施される安全作業の概要について述べる。
論文 参考訳(メタデータ) (2024-12-21T18:04:31Z) - Risk-Aware Vehicle Trajectory Prediction Under Safety-Critical Scenarios [25.16311876790003]
本稿では,安全クリティカルシナリオに適したリスク対応軌道予測フレームワークを提案する。
安全クリティカルな軌道予測データセットと調整された評価指標を導入する。
その結果,モデルの性能が向上し,ほとんどの指標が大幅に改善した。
論文 参考訳(メタデータ) (2024-07-18T13:00:01Z) - Uncertainty-Aware Probabilistic Graph Neural Networks for Road-Level Traffic Accident Prediction [6.570852598591727]
Stemporal Zero-Inflated Tweedie Graph Neural Network STZITZTDGNNは,道路交通事故予測における最初の不確実性を考慮したグラフ深層学習モデルである。
本研究は,STIDGNNが対象道路の監視を効果的に行い,都市道路の安全対策を改善することを実証するものである。
論文 参考訳(メタデータ) (2023-09-10T16:35:47Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Uncertainty-based Traffic Accident Anticipation with Spatio-Temporal
Relational Learning [30.59728753059457]
交通事故予測は、できるだけ早くダッシュカムビデオから事故を予測することを目的としている。
現在の決定論的ディープニューラルネットワークは、誤った予測では過信される可能性がある。
本稿では,関係時間学習を用いた不確実性に基づく事故予測モデルを提案する。
論文 参考訳(メタデータ) (2020-08-01T20:21:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。