論文の概要: Stitching the Story: Creating Panoramic Incident Summaries from Body-Worn Footage
- arxiv url: http://arxiv.org/abs/2509.04370v1
- Date: Thu, 04 Sep 2025 16:27:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.220787
- Title: Stitching the Story: Creating Panoramic Incident Summaries from Body-Worn Footage
- Title(参考訳): パノラマ・インシデント(パノラマ・インシデント・サマリー)の作り方
- Authors: Dor Cohen, Inga Efrosman, Yehudit Aperstein, Alexander Apartsin,
- Abstract要約: 最初の応答者は、インシデントシーンを記録し、イベント後の分析をサポートするために、ボディウーンカメラを広く採用している。
この研究は、ボディカメラの映像をインシデントシーンを要約した情報パノラマ画像に変換するコンピュータビジョンパイプラインを提示する。
- 参考スコア(独自算出の注目度): 40.12543056558646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: First responders widely adopt body-worn cameras to document incident scenes and support post-event analysis. However, reviewing lengthy video footage is impractical in time-critical situations. Effective situational awareness demands a concise visual summary that can be quickly interpreted. This work presents a computer vision pipeline that transforms body-camera footage into informative panoramic images summarizing the incident scene. Our method leverages monocular Simultaneous Localization and Mapping (SLAM) to estimate camera trajectories and reconstruct the spatial layout of the environment. Key viewpoints are identified by clustering camera poses along the trajectory, and representative frames from each cluster are selected. These frames are fused into spatially coherent panoramic images using multi-frame stitching techniques. The resulting summaries enable rapid understanding of complex environments and facilitate efficient decision-making and incident review.
- Abstract(参考訳): 最初の応答者は、インシデントシーンを記録し、イベント後の分析をサポートするために、ボディウーンカメラを広く採用している。
しかし、時間クリティカルな状況では、長いビデオ映像のレビューは現実的ではない。
効果的な状況認識は、素早く解釈できる簡潔な視覚的要約を要求する。
この研究は、ボディカメラの映像をインシデントシーンを要約した情報パノラマ画像に変換するコンピュータビジョンパイプラインを提示する。
本手法は,一眼的同時配置マッピング(SLAM)を利用して,カメラの軌跡を推定し,環境の空間的レイアウトを再構築する。
主要な視点は、軌道に沿ったクラスタリングカメラのポーズによって識別され、各クラスタからの代表フレームが選択される。
これらのフレームは、多フレーム縫合技術を用いて空間的にコヒーレントなパノラマ画像に融合される。
結果として得られる要約は、複雑な環境の迅速な理解を可能にし、効率的な意思決定とインシデントレビューを促進する。
関連論文リスト
- DAGE: Dual-Stream Architecture for Efficient and Fine-Grained Geometry Estimation [72.89376712495464]
DAGEは、グローバルコヒーレンスを細部から切り離すデュアルストリームトランスフォーマーである。
低解像度ストリームは、フレーム/言語的注意を交互に交互に付加したアグレッシブなダウンサンプリングフレームで動作し、ビュー一貫性表現を構築する。
高解像度のストリームは、フレーム毎に元のイメージを処理し、シャープな境界と小さな構造を保存する。
この設計は、解像度とクリップ長を独立にスケールし、2Kまでの入力をサポートし、実用的な推論コストを維持する。
論文 参考訳(メタデータ) (2026-03-04T05:29:29Z) - Rethinking Camera Choice: An Empirical Study on Fisheye Camera Properties in Robotic Manipulation [53.27191803311681]
我々は,手首に装着した魚眼カメラの特性を模倣学習のために厳密に分析した。
魚眼で訓練された政策は、十分な環境多様性で訓練された場合、優れた場面の一般化を解放する。
本研究は,ロボット学習における魚眼データセットの大規模収集と有効活用のための具体的かつ実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2026-03-02T18:00:37Z) - IntelliCap: Intelligent Guidance for Consistent View Sampling [14.791526418738218]
高品質なビュー合成には一様で高密度なビューサンプリングが必要である。
画像取得中に人間を誘導する既存のアプローチは、単一のオブジェクトに集中している。
複数スケールでスキャンを行うための新しい位置可視化手法を提案する。
論文 参考訳(メタデータ) (2025-08-18T16:00:31Z) - KRONC: Keypoint-based Robust Camera Optimization for 3D Car Reconstruction [58.04846444985808]
KRONCは、オブジェクトに関する事前知識を活用して、セマンティックキーポイントを通してその表現を再構築することで、ビューポーズを推論する新しいアプローチである。
車両シーンに焦点を当てたKRONCは、キーポイントのバックプロジェクションを特異点に収束させることを目的とした光最適化問題の解として、ビューの位置を推定することができる。
論文 参考訳(メタデータ) (2024-09-09T08:08:05Z) - MultiViPerFrOG: A Globally Optimized Multi-Viewpoint Perception Framework for Camera Motion and Tissue Deformation [18.261678529996104]
本稿では,低レベル認識モジュールの出力をキネマティックおよびシーンモデリングの先駆体と柔軟に統合するフレームワークを提案する。
提案手法は,数ミリ秒で数百ポイントの処理が可能であり,ノイズの多い入力手段の組み合わせに対するロバスト性を示す。
論文 参考訳(メタデータ) (2024-08-08T10:55:55Z) - Erasing the Ephemeral: Joint Camera Refinement and Transient Object
Removal for Street View Synthesis [44.90761677737313]
本研究では,屋外シナリオにおけるビュー合成の課題に対処する手法を提案する。
我々はニューラルポイント光のシーン表現を採用し、動的物体を戦略的に検出・マスクアウトし、アーティファクトなしで新しいシーンを再構築する。
都市景観の新たなビューを合成する上での最先端の成果を実証する。
論文 参考訳(メタデータ) (2023-11-29T13:51:12Z) - Scene Summarization: Clustering Scene Videos into Spatially Diverse Frames [23.229623379422303]
シーン要約(Scene summarization)は、連続した長いシーン映像を、グローバルな空間的推論を容易にする、空間的に多様なコンパクトなセットに凝縮するタスクである。
SceneSumは、まず視覚的位置認識を用いてビデオフレームをクラスタリングし、空間的多様性を促進し、リソース制約下で各クラスタから代表者を選択する。
実および模擬屋内データセットの実験により、SceneSumはより空間的に情報的な要約を生成し、既存のビデオ要約ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-11-28T22:18:26Z) - DynPoint: Dynamic Neural Point For View Synthesis [43.27110788061267]
我々は、制約のないモノクロビデオのための新しいビューの迅速な合成を容易にするアルゴリズムであるDynPointを提案する。
DynPointは、情報集約を実現するために、隣接するフレーム間の明示的な3D対応を予測することに集中している。
本手法は,ビデオコンテンツの正規表現を学習することなく,長時間の動画処理において強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-29T12:55:53Z) - Total-Recon: Deformable Scene Reconstruction for Embodied View Synthesis [76.72505510632904]
長い単眼のRGBDビデオから変形可能なシーンを再構成する最初の方法であるTotal-Reconを提案する。
本手法は背景と物体にシーンを階層的に分解し,動作を根体運動と局所的調音に分解する。
論文 参考訳(メタデータ) (2023-04-24T17:59:52Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - Crowdsampling the Plenoptic Function [56.10020793913216]
このようなデータから時間変動照明下での新しいビュー合成手法を提案する。
本稿では,新しいDeepMPI表現について紹介する。
本手法は従来のMPI法と同等のパララックスとビュー依存効果を合成し, 反射率の変化と光の時間変化を同時に補間する。
論文 参考訳(メタデータ) (2020-07-30T02:52:10Z) - Perspective Plane Program Induction from a Single Image [85.28956922100305]
本研究では,自然画像の全体像を推定する逆グラフ問題について検討する。
我々は、この問題を、入力画像の最もよく記述されたカメラポーズとシーン構造を共同で発見するものとして定式化する。
提案するフレームワークであるP3Iは,探索に基づくアルゴリズムと勾配に基づくアルゴリズムを組み合わせて効率よく問題を解く。
論文 参考訳(メタデータ) (2020-06-25T21:18:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。