論文の概要: Multiple Object Detection and Tracking in Panoramic Videos for Cycling Safety Analysis
- arxiv url: http://arxiv.org/abs/2407.15199v2
- Date: Tue, 26 Aug 2025 22:28:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.304929
- Title: Multiple Object Detection and Tracking in Panoramic Videos for Cycling Safety Analysis
- Title(参考訳): 自転車安全解析のためのパノラマ映像における複数物体検出と追跡
- Authors: Jingwei Guo, Yitai Cheng, Meihui Wang, Ilya Ilyankou, Natchapon Jongwiriyanurak, Xiaowei Gao, Nicola Christie, James Haworth,
- Abstract要約: サイクリストは不均等な怪我のリスクに直面しているが、従来の事故記録は事故の状況を再構築するにはあまりに限られている。
近年の自然主義的な研究は、衝突に寄与する複雑な行動的・インフラ的要因を捉える方法として注目を集めている。
パノラマビデオ(パノラマビデオ、パノラマビデオ)は、ライダーの周囲の360度映像を撮影する。
本研究は, パノラマ画像の物体検出精度を高めるために,(1)元の360度画像を4つの視点のサブイメージに分割・投影することにより,歪みを低減させる,(2)境界連続性とオブジェクトカテゴリ情報を組み込んだ多対象追跡モデルを修正する,という3段階の枠組みを提案する。
- 参考スコア(独自算出の注目度): 2.1587168792694102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cyclists face a disproportionate risk of injury, yet conventional crash records are too limited to reconstruct the circumstances of incidents or to diagnose risk at the finer spatial and temporal detail needed for targeted interventions. Recently, naturalistic studies have gained traction as a way to capture the complex behavioural and infrastructural factors that contribute to crashes. These approaches typically involve the collection and analysis of video data. A video promising format is panoramic video, which can record 360-degree views around a rider. However, its use is limited by severe distortions, large numbers of small objects and boundary continuity. This study addresses these challenges by proposing a novel three-step framework: (1) enhancing object detection accuracy on panoramic imagery by segmenting and projecting the original 360-degree images into four perspective sub-images, thus reducing distortion; (2) modifying multi-object tracking models to incorporate boundary continuity and object category information for improved tracking consistency; and (3) validating the proposed approach through a real-world application focused on detecting overtaking manoeuvres by vehicles around cyclists. The methodology is evaluated using panoramic videos recorded by cyclists on London's roadways under diverse conditions. Experimental results demonstrate notable improvements over baseline methods, achieving higher average precision across varying image resolutions. Moreover, the enhanced tracking approach yields a 3.0% increase in multi-object tracking accuracy and a 4.6% improvement in identification F-score. The overtaking detection task achieves a high F-score of 0.81, illustrating the practical effectiveness of the proposed method in real-world cycling safety scenarios. The code is available on GitHub (https://github.com/SpaceTimeLab/360_object_tracking) to ensure reproducibility.
- Abstract(参考訳): サイクリストは怪我の危険に悩まされるが、通常の事故記録は、事故の状況の再構築や、標的とする介入に必要なより細かい空間的および時間的詳細でのリスクの診断にはあまりに限られている。
近年、自然主義的な研究は、衝突に寄与する複雑な行動的・インフラ的要因を捉える方法として注目を集めている。
これらのアプローチは典型的にはビデオデータの収集と分析を伴う。
パノラマビデオ(パノラマビデオ、パノラマビデオ)は、ライダーの周囲の360度映像を撮影する。
しかし、その用途は厳しい歪み、多数の小さな物体、境界連続性によって制限される。
本研究は, パノラマ画像の物体検出精度を4つの視点のサブイメージに分割・投影することで, 歪みを低減し, 境界連続性や物体カテゴリー情報を組み込んで追跡一貫性を向上させるための多対象追跡モデルの変更, そして, 提案手法を, 自転車周囲の車両による過度な操作の検出に焦点をあてた実世界のアプリケーションを通じて検証することにより, これら3段階の課題に対処する。
この手法は、様々な条件下でロンドンの道路でサイクリストが記録したパノラマビデオを用いて評価される。
実験結果から, 画像解像度の異なる平均精度を実現するため, ベースライン法よりも顕著な改善が得られた。
さらに,マルチオブジェクト追跡精度が3.0%向上し,Fスコアが4.6%向上した。
オーバーテイク検出タスクは、実世界のサイクリング安全シナリオにおける提案手法の有効性を実証し、高いFスコア0.81を達成する。
再現性を確保するため、コードはGitHub(https://github.com/SpaceTimeLab/360_object_tracking)で入手できる。
関連論文リスト
- Inverse++: Vision-Centric 3D Semantic Occupancy Prediction Assisted with 3D Object Detection [11.33083039877258]
3次元セマンティック占有予測は、自動運転車の周囲環境の詳細な幾何学的・意味的な情報を予測することを目的としている。
追加の3次元物体検出補助分岐を組み込んだ3次元監視信号を導入する。
IoUスコアは31.73%、mIoUスコアは20.91%である。
論文 参考訳(メタデータ) (2025-04-07T05:08:22Z) - Tracking Meets Large Multimodal Models for Driving Scenario Understanding [76.71815464110153]
大規模マルチモーダルモデル(LMM)は、最近自動運転研究で注目されている。
本稿では3次元の空間的・時間的詳細を復元するための追加入力として追跡情報を統合することを提案する。
本稿では,この追跡情報をLMMに埋め込んで,運転シナリオの理解を深めるための新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-18T17:59:12Z) - Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Optimizing YOLO Architectures for Optimal Road Damage Detection and Classification: A Comparative Study from YOLOv7 to YOLOv10 [0.0]
本稿では,ディープラーニングモデルを用いた道路損傷検出のための総合ワークフローを提案する。
ハードウェアの制約を満たすため、大きな画像が収穫され、軽量モデルが利用される。
提案手法では,コーディネートアテンションレイヤを備えたカスタムYOLOv7モデルや,Tiny YOLOv7モデルなど,複数のモデルアーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-10-10T22:55:12Z) - Transfer Learning from Simulated to Real Scenes for Monocular 3D Object Detection [9.708971995966476]
本稿では,これらの課題に対処するための2段階のトレーニング戦略を紹介する。
当社のアプローチでは,大規模合成データセットであるRoadSense3Dのモデルをトレーニングしています。
実世界のデータセットの組み合わせでモデルを微調整し、実用条件への適応性を高める。
論文 参考訳(メタデータ) (2024-08-28T08:44:58Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Multi-Camera Multiple 3D Object Tracking on the Move for Autonomous
Vehicles [17.12321292167318]
オブジェクトの検出と追跡は、カメラのビューにまたがって一貫した結果を達成するなど、新しい課題に対処するために重要である。
本研究は,既存のトラックレットの位置とリンク検出をトラックレットで予測するために,リンク予測を用いた新たなグローバルアソシエーショングラフモデルを提案する。
本モデルは, nuScenes 検出課題における標準3次元物体検出器の検出精度の向上に有効である。
論文 参考訳(メタデータ) (2022-04-19T22:50:36Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。