論文の概要: Data extraction and processing methods to aid the study of driving behaviors at intersections in naturalistic driving
- arxiv url: http://arxiv.org/abs/2505.05487v1
- Date: Tue, 29 Apr 2025 22:16:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-18 22:55:23.152828
- Title: Data extraction and processing methods to aid the study of driving behaviors at intersections in naturalistic driving
- Title(参考訳): 自然主義運転における交差点における運転行動の研究を支援するデータ抽出と処理方法
- Authors: Shrinivas Pundlik, Seonggyu Choe, Patrick Baker, Chen-Yuan Lee, Naser Al-Madi, Alex R. Bowers, Gang Luo,
- Abstract要約: 本報告では,交差点における運転者の頭部スキャンを抽出し,特徴付ける手法について述べる。
データは車内記録システムから収集され、車内速度、GPS位置、シーンビデオ、キャビンビデオが記録された。
マサチューセッツ州とカリフォルニア州の都市部と郊外部を走る3台の車から190台の交差点を処理しました。
- 参考スコア(独自算出の注目度): 1.3701117642408425
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Naturalistic driving studies use devices in participants' own vehicles to record daily driving over many months. Due to diverse and extensive amounts of data recorded, automated processing is necessary. This report describes methods to extract and characterize driver head scans at intersections from data collected from an in-car recording system that logged vehicle speed, GPS location, scene videos, and cabin videos. Custom tools were developed to mark the intersections, synchronize location and video data, and clip the cabin and scene videos for +/-100 meters from the intersection location. A custom-developed head pose detection AI model for wide angle head turns was run on the cabin videos to estimate the driver head pose, from which head scans >20 deg were computed in the horizontal direction. The scene videos were processed using a YOLO object detection model to detect traffic lights, stop signs, pedestrians, and other vehicles on the road. Turning maneuvers were independently detected using vehicle self-motion patterns. Stop lines on the road surface were detected using changing intensity patterns over time as the vehicle moved. The information obtained from processing the scene videos, along with the speed data was used in a rule-based algorithm to infer the intersection type, maneuver, and bounds. We processed 190 intersections from 3 vehicles driven in cities and suburban areas from Massachusetts and California. The automated video processing algorithm correctly detected intersection signage and maneuvers in 100% and 94% of instances, respectively. The median [IQR] error in detecting vehicle entry into the intersection was 1.1[0.4-4.9] meters and 0.2[0.1-0.54] seconds. The median overlap between ground truth and estimated intersection bounds was 0.88[0.82-0.93].
- Abstract(参考訳): 自然主義的な運転研究は、参加者自身の車両のデバイスを使用して、何ヶ月もの間毎日の運転を記録している。
多様な大量のデータが記録されているため、自動処理が必要である。
本報告では,車両の速度,GPS位置,シーンビデオ,キャビンビデオなどを記録する車内記録システムから収集したデータから,交差点での運転者の頭部スキャンを抽出し特徴付ける手法について述べる。
交差点をマークし、位置と映像データを同期させ、交差点位置から +/-100m でキャビンとシーンビデオをクリップするカスタムツールが開発された。
ヘッドポーズ検出用AIモデルをキャビンビデオ上で実行し、ドライバヘッドポーズを推定し、ヘッドスキャン>20dgを水平方向に計算した。
映像は、道路上の信号、一時停止標識、歩行者、その他の車両を検出するために、YOLOオブジェクト検出モデルを用いて処理された。
旋回操作は車両の自走パターンを用いて独立に検出された。
路面上の停止線は車両の移動に伴う強度変化パターンを用いて検出された。
シーンビデオの処理から得られた情報と速度データをルールベースのアルゴリズムを用いて,交差点のタイプ,操作,バウンダリを推定した。
マサチューセッツ州とカリフォルニア州の都市部と郊外部を走る3台の車から190台の交差点を処理しました。
自動ビデオ処理アルゴリズムは交差点のサインと操作をそれぞれ100%と94%のインスタンスで正確に検出した。
交差点への車両の進入を検知する際の[IQR]誤差は1.1[0.4-4.9]mと0.2[0.1-0.54]秒であった。
地上の真理と推定交叉境界の中央値の重なりは 0.88[0.82-0.93] であった。
関連論文リスト
- Pedestrian Environment Model for Automated Driving [54.16257759472116]
歩行者の位置とポーズ情報を含む環境モデルを提案する。
画像から人間のポーズ推定器を用いて骨格情報を抽出する。
位置の3D情報を得るために,車両の位置と合わせて連続するフレームからデータを集約する。
論文 参考訳(メタデータ) (2023-08-17T16:10:58Z) - Traffic Scene Parsing through the TSP6K Dataset [109.69836680564616]
高品質なピクセルレベルのアノテーションとインスタンスレベルのアノテーションを備えた,TSP6Kと呼ばれる特殊なトラフィック監視データセットを導入する。
データセットは、既存の運転シーンの何倍ものトラフィック参加者を持つ、より混雑した交通シーンをキャプチャする。
交通シーンの異なるセマンティック領域の詳細を復元するシーン解析のためのディテールリフィニングデコーダを提案する。
論文 参考訳(メタデータ) (2023-03-06T02:05:14Z) - Automatic vehicle trajectory data reconstruction at scale [2.010294990327175]
本稿では,視覚に基づく車両軌道データにおける共通誤差を補正する自動軌道データ照合法を提案する。
本手法により, 実験対象の入力データの精度が向上し, 広い範囲で精度が向上することを示す。
論文 参考訳(メタデータ) (2022-12-15T15:39:55Z) - Driver Maneuver Detection and Analysis using Time Series Segmentation
and Classification [7.413735713939367]
本稿では,自然主義運転環境下での車両遠隔計測データから車両の操作を自動的に検出する手法を実装した。
本研究の目的は、自然主義駆動学習ビデオのフレーム・バイ・フレームアノテーションのためのエンドツーエンドパイプラインを開発することである。
論文 参考訳(メタデータ) (2022-11-10T03:38:50Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - METEOR: A Massive Dense & Heterogeneous Behavior Dataset for Autonomous
Driving [42.69638782267657]
本稿では、インドにおける非構造化シナリオにおけるトラフィックパターンをキャプチャする、新しい複雑なトラフィックデータセットMETEORを提案する。
METEORは1000分以上のビデオクリップと、エゴ車軌道を持つ200万以上の注釈付きフレームと、周囲の車両や交通機関のための1300万以上のバウンディングボックスで構成されている。
我々は,オブジェクト検出と行動予測アルゴリズムの性能を評価するために,新しいデータセットを用いた。
論文 参考訳(メタデータ) (2021-09-16T01:01:55Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Interaction Detection Between Vehicles and Vulnerable Road Users: A Deep
Generative Approach with Attention [9.442285577226606]
交差点における相互作用検出のための条件生成モデルを提案する。
道路利用者の行動の連続性に関する膨大な映像データを自動解析することを目的としています。
モデルの有効性は実世界のデータセットでテストすることによって検証された。
論文 参考訳(メタデータ) (2021-05-09T10:03:55Z) - Universal Embeddings for Spatio-Temporal Tagging of Self-Driving Logs [72.67604044776662]
我々は、生のセンサデータから、自動運転シーンの時間的タグ付けの問題に取り組む。
提案手法では,全てのタグに対する普遍的な埋め込みを学習し,多くの属性を効率的にタグ付けし,限られたデータで新しい属性を高速に学習する。
論文 参考訳(メタデータ) (2020-11-12T02:18:16Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。