論文の概要: Estimation of Kinematic Motion from Dashcam Footage
- arxiv url: http://arxiv.org/abs/2512.01104v1
- Date: Sun, 30 Nov 2025 22:07:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.585273
- Title: Estimation of Kinematic Motion from Dashcam Footage
- Title(参考訳): ダッシュカム足場からの運動量推定
- Authors: Evelyn Zhang, Alex Richardson, Jonathan Sprinkle,
- Abstract要約: 本研究の目的は、車のような車両の実際の運動を予測するために、ダッシュカム映像の精度を検討することである。
当社のアプローチでは、車両のオンボードデータストリーム、コントローラエリアネットワーク、タイム同期ダッシュボードカメラから、真理情報を利用する。
論文のコントリビューションには、車両の速度とヨーの精度を定量化するニューラルネットワークモデルが含まれている。
- 参考スコア(独自算出の注目度): 1.4746066968869487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of this paper is to explore the accuracy of dashcam footage to predict the actual kinematic motion of a car-like vehicle. Our approach uses ground truth information from the vehicle's on-board data stream, through the controller area network, and a time-synchronized dashboard camera, mounted to a consumer-grade vehicle, for 18 hours of footage and driving. The contributions of the paper include neural network models that allow us to quantify the accuracy of predicting the vehicle speed and yaw, as well as the presence of a lead vehicle, and its relative distance and speed. In addition, the paper describes how other researchers can gather their own data to perform similar experiments, using open-source tools and off-the-shelf technology.
- Abstract(参考訳): 本研究の目的は、車のような車両の実際の運動を予測するために、ダッシュカム映像の精度を検討することである。
当社のアプローチでは、車両のオンボードデータストリームから、コントローラエリアネットワークを介して、コンシューマーグレードの車両に搭載されたタイム同期ダッシュボードカメラを18時間の映像と運転に使用しています。
論文のコントリビューションには、車両の速度とヨーを予測する精度の定量化を可能にするニューラルネットワークモデルと、リード車両の存在と、その相対距離と速度が含まれる。
さらに、この論文では、オープンソースツールやオフザシェルフ技術を用いて、他の研究者が独自のデータを収集して同様の実験を行う方法について説明している。
関連論文リスト
- FARSEC: A Reproducible Framework for Automatic Real-Time Vehicle Speed
Estimation Using Traffic Cameras [14.339217121537537]
ナビゲーションやロジスティクスなどの交通依存システムは、信頼性の高い速度推定の恩恵を受ける可能性がある。
我々は,公共交通カメラのより多様なデータに対処する,自動リアルタイム車両速度計算のための新しいフレームワークを提供する。
我々のフレームワークは、カメラの動きや異なるビデオストリーム入力などの現実的な条件を自動で処理できる。
論文 参考訳(メタデータ) (2023-09-25T19:02:40Z) - Driver Profiling and Bayesian Workload Estimation Using Naturalistic
Peripheral Detection Study Data [40.43737902900321]
性能データを駆動する作業負荷推定の問題に対処する。
心的負荷を誘発する主要な環境要因をビデオ解析により同定する。
教師付き学習フレームワークは、彼らが経験した平均的なワークロードに基づいて、プロファイルドライバに導入される。
ベイズフィルタリング手法は、ドライバーの即時作業負荷である(ほぼ)リアルタイムに逐次推定するために提案される。
論文 参考訳(メタデータ) (2023-03-26T13:15:44Z) - A dataset for audio-video based vehicle speed estimation [0.0]
我々は、カメラを通り抜ける1台の車両の、走行中の音声録画のデータセットを、既知の速度で提示する。
データセットは完全に利用可能であり、オーディオビデオ車両の速度推定の研究を容易にするための公開ベンチマークとして意図されている。
論文 参考訳(メタデータ) (2022-12-03T17:02:57Z) - Towards view-invariant vehicle speed detection from driving simulator
images [0.31498833540989407]
複雑な3D-CNNアーキテクチャが単一のモデルを用いて暗黙的にビュー不変速度を学習できるかどうかという問題に対処する。
結果は、複数のビューのデータを持つ単一のモデルが、カメラ固有のモデルよりも精度が高いことを示しているため、非常に有望である。
論文 参考訳(メタデータ) (2022-06-01T09:14:45Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Data-driven vehicle speed detection from synthetic driving simulator
images [0.440401067183266]
運転シミュレータから生成された合成画像を用いて車両の速度検出について検討する。
複数の速度、車両の種類や色、照明や気象条件に応じた可変性を持つ数千の画像を生成します。
CNN-GRUや3D-CNNなど,画像のシーケンスを出力速度(回帰)にマッピングする2つのアプローチについて検討した。
論文 参考訳(メタデータ) (2021-04-20T11:26:13Z) - V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and
Prediction [74.42961817119283]
車両間通信(V2V)を用いて、自動運転車の知覚と運動予測性能を向上させる。
複数の車両から受信した情報をインテリジェントに集約することで、異なる視点から同じシーンを観察することができる。
論文 参考訳(メタデータ) (2020-08-17T17:58:26Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。