論文の概要: Fire360: A Benchmark for Robust Perception and Episodic Memory in Degraded 360-Degree Firefighting Videos
- arxiv url: http://arxiv.org/abs/2506.02167v1
- Date: Mon, 02 Jun 2025 18:45:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.363964
- Title: Fire360: A Benchmark for Robust Perception and Episodic Memory in Degraded 360-Degree Firefighting Videos
- Title(参考訳): Fire360: 劣化した360度ファイアファイアファイアファイアファイアファイアファイアファイアファイアファイアレスビデオにおけるロバスト認識とエピソード記憶のベンチマーク
- Authors: Aditi Tiwari, Farzaneh Masoud, Dac Trong Nguyen, Jill Kraft, Heng Ji, Klara Nahrstedt,
- Abstract要約: Fire360は、安全クリティカルな消火シナリオにおける認識と推論を評価するためのベンチマークである。
データセットには、さまざまな条件下でのプロのトレーニングセッションからの228の360度ビデオが含まれている。
- 参考スコア(独自算出の注目度): 42.29242371592194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern AI systems struggle most in environments where reliability is critical - scenes with smoke, poor visibility, and structural deformation. Each year, tens of thousands of firefighters are injured on duty, often due to breakdowns in situational perception. We introduce Fire360, a benchmark for evaluating perception and reasoning in safety-critical firefighting scenarios. The dataset includes 228 360-degree videos from professional training sessions under diverse conditions (e.g., low light, thermal distortion), annotated with action segments, object locations, and degradation metadata. Fire360 supports five tasks: Visual Question Answering, Temporal Action Captioning, Object Localization, Safety-Critical Reasoning, and Transformed Object Retrieval (TOR). TOR tests whether models can match pristine exemplars to fire-damaged counterparts in unpaired scenes, evaluating transformation-invariant recognition. While human experts achieve 83.5% on TOR, models like GPT-4o lag significantly, exposing failures in reasoning under degradation. By releasing Fire360 and its evaluation suite, we aim to advance models that not only see, but also remember, reason, and act under uncertainty. The dataset is available at: https://uofi.box.com/v/fire360dataset.
- Abstract(参考訳): 現代のAIシステムは、信頼性が重要な環境 – 煙のシーン、視界の低さ、構造的変形 – において、ほとんどに苦労している。
毎年、何万人もの消防士が勤務中に負傷した。
安全クリティカルな消火シナリオにおける認識と推論を評価するためのベンチマークであるFire360を紹介する。
データセットには、さまざまな条件(例えば、低照度、熱歪み)下でのプロのトレーニングセッションからの228の360度ビデオが含まれており、アクションセグメント、オブジェクト位置、分解メタデータが注釈付けされている。
Fire360は5つのタスクをサポートする:ビジュアルクェリアンサー、テンポラルアクションキャプション、オブジェクトローカライゼーション、セーフティ・クリティカルな推論、変換されたオブジェクト検索(TOR)。
TORは、モデルがプリスタンの例えに火傷のある場面でマッチするかどうかをテストし、変換不変の認識を評価する。
ヒトの専門家がTORで83.5%を達成する一方で、GPT-4oのようなモデルは大幅に遅れ、劣化中の推論の失敗が露呈する。
Fire360とその評価スイートをリリースすることによって、不確実性のあるモデルだけでなく、記憶、理性、行動といったモデルも進化させることを目指しています。
データセットは、https://uofi.box.com/v/fire360dataset.comで公開されている。
関連論文リスト
- FlameFinder: Illuminating Obscured Fire through Smoke with Attentive Deep Metric Learning [11.218765140036254]
FlameFinderは、山火事の監視中に消防士のドローンの熱画像を使って、煙によって隠されたとしても、炎を正確に検知するように設計されている。
従来のRGBカメラはそのような状況では苦戦するが、熱カメラは煙を吸収する炎の特徴を捉えることができる。
この問題を解決するために、FlameFinderは2枚の熱-RGB画像を用いてトレーニングを行っている。煙のないサンプルから潜熱火炎の特徴を学習することで、モデルは相対的な熱勾配に偏りが小さくなる。
論文 参考訳(メタデータ) (2024-04-09T23:24:19Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - Self-supervised Monocular Depth Estimation: Let's Talk About The Weather [2.836066255205732]
現在の自己監督型深度推定アーキテクチャは、深層ニューラルネットワークをトレーニングするために、晴れた晴れた天気のシーンに依存している。
本稿では,この問題を解決するために拡張を用いた手法を提案する。
我々は,提案手法であるRobust-Depthが,KITTIデータセット上でSotA性能を達成することを示すため,広範囲なテストを行う。
論文 参考訳(メタデータ) (2023-07-17T09:50:03Z) - WEDGE: A multi-weather autonomous driving dataset built from generative
vision-language models [51.61662672912017]
本稿では,視覚言語生成モデルを用いて生成した合成データセットWEDGEを紹介する。
WEDGEは16の極度の気象条件で3360枚の画像で構成され、16513個の境界ボックスを手動で注釈付けしている。
53.87%の検定精度と45.41mAPで分類・検出のためのベースライン性能を確立した。
論文 参考訳(メタデータ) (2023-05-12T14:42:47Z) - Image-Based Fire Detection in Industrial Environments with YOLOv4 [53.180678723280145]
この研究は、AIが火災を検出し、認識し、画像ストリーム上のオブジェクト検出を使用して検出時間を短縮する可能性を検討する。
そこで我々は, YOLOv4オブジェクト検出器をベースとした複数のモデルのトレーニングと評価に使用されてきた複数の公開情報源から, 適切なデータを収集, ラベル付けした。
論文 参考訳(メタデータ) (2022-12-09T11:32:36Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - Assessing out-of-domain generalization for robust building damage
detection [78.6363825307044]
建築損傷検出は、衛星画像にコンピュータビジョン技術を適用することで自動化することができる。
モデルは、トレーニングで利用可能な災害画像と、新しいイベントの画像の間の分散の変化に対して堅牢でなければならない。
今後はOOD体制に重点を置くべきだと我々は主張する。
論文 参考訳(メタデータ) (2020-11-20T10:30:43Z) - An embedded deep learning system for augmented reality in firefighting
applications [2.750124853532832]
この研究は、ディープラーニング、ポイントクラウド、サーマルイメージング、拡張現実プラットフォームなど、最近の技術の進歩を実践している。
我々は、消防士の個人防護装置(PPE)に組み込まれたカメラからストリームされるデータを利用して、熱、RGB色、深度画像をキャプチャする、プロトタイプの組込みシステムの設計と構築を行った。
組込みシステムは、処理された画像をワイヤレスストリーミングで分析して返却し、拡張現実プラットフォームを使用してリモートで消防士に中継することができる。
論文 参考訳(メタデータ) (2020-09-22T16:55:44Z) - KutralNet: A Portable Deep Learning Model for Fire Recognition [4.886882441164088]
火災認識のための浮動小数点演算(浮動小数点演算)の少ない新しいディープラーニングアーキテクチャを提案する。
また, 火災認識のための携帯型手法と, モデル計算コスト削減のための近代技術の利用を提案する。
私たちのモデルの1つは、FireNetよりも71%少ないパラメータを示しながら、競争精度とAUROCのパフォーマンスを示しています。
論文 参考訳(メタデータ) (2020-08-16T09:35:25Z) - A Novel Indoor Positioning System for unprepared firefighting scenarios [2.446948464551684]
本研究は、室内位置決めシステム(IPS)のためのコンパス方向推定とIMUデータに基づく活動認識のための新しい光フローベースビデオを実装した。
この技術は、最初の応答者が未準備で未知の環境に入るのに役立ち、依然として、方向や犠牲者のファイアファイターの位置といった状況認識を維持するのに役立ちます。
論文 参考訳(メタデータ) (2020-08-04T05:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。