論文の概要: DashCam Video: A complementary low-cost data stream for on-demand forest-infrastructure system monitoring
- arxiv url: http://arxiv.org/abs/2508.11591v1
- Date: Fri, 15 Aug 2025 16:55:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:24.154481
- Title: DashCam Video: A complementary low-cost data stream for on-demand forest-infrastructure system monitoring
- Title(参考訳): DashCam Video: オンデマンド森林・インフラシステム監視のための補完的な低コストデータストリーム
- Authors: Durga Joshi, Chandi Witharana, Robert Fahey, Thomas Worthley, Zhe Zhu, Diego Cerrai,
- Abstract要約: 本研究では,道路沿いの植生・インフラのリアルタイム・オブジェクトレベルの構造評価と位置決めのための,新しい,低コスト・再現可能なフレームワークを提案する。
車両搭載ダッシュカムから正確な空間的・構造的データを生成するために,単眼深度推定,深度誤差補正,幾何三角法を組み合わせたエンドツーエンドパイプラインを開発した。
提案手法は, 植生リスクとインフラ露出のオブジェクトレベルのモニタリングを行うための, 高速でリアルタイムかつ費用対効果の高いソリューションを提供することにより, LiDARや画像などの従来のRS手法を補完するものである。
- 参考スコア(独自算出の注目度): 1.6064410860203764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our study introduces a novel, low-cost, and reproducible framework for real-time, object-level structural assessment and geolocation of roadside vegetation and infrastructure with commonly available but underutilized dashboard camera (dashcam) video data. We developed an end-to-end pipeline that combines monocular depth estimation, depth error correction, and geometric triangulation to generate accurate spatial and structural data from street-level video streams from vehicle-mounted dashcams. Depth maps were first estimated using a state-of-the-art monocular depth model, then refined via a gradient-boosted regression framework to correct underestimations, particularly for distant objects. The depth correction model achieved strong predictive performance (R2 = 0.92, MAE = 0.31 on transformed scale), significantly reducing bias beyond 15 m. Further, object locations were estimated using GPS-based triangulation, while object heights were calculated using pin hole camera geometry. Our method was evaluated under varying conditions of camera placement and vehicle speed. Low-speed vehicle with inside camera gave the highest accuracy, with mean geolocation error of 2.83 m, and mean absolute error (MAE) in height estimation of 2.09 m for trees and 0.88 m for poles. To the best of our knowledge, it is the first framework to combine monocular depth modeling, triangulated GPS-based geolocation, and real-time structural assessment for urban vegetation and infrastructure using consumer-grade video data. Our approach complements conventional RS methods, such as LiDAR and image by offering a fast, real-time, and cost-effective solution for object-level monitoring of vegetation risks and infrastructure exposure, making it especially valuable for utility companies, and urban planners aiming for scalable and frequent assessments in dynamic urban environments.
- Abstract(参考訳): 本研究は,道路沿いの植生やインフラのリアルタイム,オブジェクトレベルの構造評価と位置決めを行うための新しい,低コストで再現可能なフレームワークについて紹介する。
車両搭載ダッシュカムからの街路レベルの映像ストリームから正確な空間的・構造的データを生成するために,単眼深度推定,深度誤差補正,幾何三角法を組み合わせたエンドツーエンドパイプラインを開発した。
深度マップは、まず最先端の単分子深度モデルを用いて推定され、その後、勾配ブースト回帰フレームワークを介して洗練され、特に遠方物体の過小評価を補正した。
深度補正モデルは強い予測性能(R2 = 0.92, MAE = 0.31)を達成した。
さらに,GPSを用いた三角測量により物体の位置を推定し,ピンホールカメラの形状を用いて物体の高さを算出した。
提案手法は, カメラ配置と車両速度の異なる条件下で評価した。
内部カメラを搭載した低速車両は、平均位置誤差が2.83m、平均絶対誤差が2.9m、極が0.88mであった。
我々の知る限りでは、これは単眼深度モデリング、三角測量GPSによる位置推定、およびコンシューマグレードのビデオデータを用いた都市植生とインフラのリアルタイム構造評価を組み合わせた最初のフレームワークである。
提案手法は, 都市環境のスケーラブルで頻繁な評価を目的とした都市計画立案者に対して, 植生リスクとインフラ露出のオブジェクトレベル監視のための, 高速でリアルタイムかつ費用対効果の高いソリューションを提供することにより, 従来のRS手法であるLiDARや画像などの手法を補完するものである。
関連論文リスト
- 2.5D Object Detection for Intelligent Roadside Infrastructure [37.07785188366053]
インフラ路面カメラのための2.5Dオブジェクト検出フレームワークを提案する。
画像フレーム内の平行図として車両の地上面を検出するための予測手法を用いる。
以上の結果から, 高い検出精度, 強い対面一般化, 各種照明および気象条件に対する堅牢性が確認された。
論文 参考訳(メタデータ) (2025-07-04T13:16:59Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Semi-SD: Semi-Supervised Metric Depth Estimation via Surrounding Cameras for Autonomous Driving [20.19617659712535]
Semi-SDは、自動運転における周囲のカメラ機器に適した新しいメートル法深度推定フレームワークである。
本稿では,視覚的融合機能を構築するために,空間空間-時間-意味融合モジュールを提案する。
DDADおよびnuScenesデータセットを用いてアルゴリズムの評価を行い,本手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2025-03-25T14:39:04Z) - Boosting 3-DoF Ground-to-Satellite Camera Localization Accuracy via
Geometry-Guided Cross-View Transformer [66.82008165644892]
地上レベルの画像と一致/検索衛星画像との相対的な回転と変換を推定することにより、地上カメラの位置と方向の精度を向上させる手法を提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-16T11:52:27Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Real-Time Monocular Human Depth Estimation and Segmentation on Embedded
Systems [13.490605853268837]
移動中の歩行者に対する衝突回避を実現するためにシーンの深さを推定することは、ロボット分野における決定的かつ基本的な問題である。
本稿では,室内環境における人体深度推定とセグメンテーションを高速かつ高精度に行うための,新しい低複雑性ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-08-24T03:26:08Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。