論文の概要: PDB: Not All Drivers Are the Same -- A Personalized Dataset for Understanding Driving Behavior
- arxiv url: http://arxiv.org/abs/2503.06477v1
- Date: Sun, 09 Mar 2025 06:28:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:51:52.184935
- Title: PDB: Not All Drivers Are the Same -- A Personalized Dataset for Understanding Driving Behavior
- Title(参考訳): PDB: すべてのドライバーが同じではない -- 運転行動を理解するためのパーソナライズされたデータセット
- Authors: Chuheng Wei, Ziye Qin, Siyan Li, Ziyan Zhang, Xuanpeng Zhao, Amr Abdelraouf, Rohit Gupta, Kyungtae Han, Matthew J. Barth, Guoyuan Wu,
- Abstract要約: パーソナライズされた運転行動データセットは、自然な運転条件下での運転行動のパーソナライズをキャプチャするために設計されたマルチモーダルデータセットである。
データセットには12人の参加者、約270,000のLiDARフレーム、1.6万の画像、6.6TBの生センサデータが含まれている。
ドライバの振る舞いを明示的にキャプチャすることで、PDBはヒューマンファクタ分析、ドライバ識別、パーソナライズされたモビリティアプリケーションのためのユニークなリソースとなる。
- 参考スコア(独自算出の注目度): 15.804795085314423
- License:
- Abstract: Driving behavior is inherently personal, influenced by individual habits, decision-making styles, and physiological states. However, most existing datasets treat all drivers as homogeneous, overlooking driver-specific variability. To address this gap, we introduce the Personalized Driving Behavior (PDB) dataset, a multi-modal dataset designed to capture personalization in driving behavior under naturalistic driving conditions. Unlike conventional datasets, PDB minimizes external influences by maintaining consistent routes, vehicles, and lighting conditions across sessions. It includes sources from 128-line LiDAR, front-facing camera video, GNSS, 9-axis IMU, CAN bus data (throttle, brake, steering angle), and driver-specific signals such as facial video and heart rate. The dataset features 12 participants, approximately 270,000 LiDAR frames, 1.6 million images, and 6.6 TB of raw sensor data. The processed trajectory dataset consists of 1,669 segments, each spanning 10 seconds with a 0.2-second interval. By explicitly capturing drivers' behavior, PDB serves as a unique resource for human factor analysis, driver identification, and personalized mobility applications, contributing to the development of human-centric intelligent transportation systems.
- Abstract(参考訳): 運転行動は本質的に個人的であり、個人の習慣、意思決定スタイル、生理的状態に影響される。
しかしながら、既存のデータセットのほとんどは、すべてのドライバを均質で、ドライバ固有の変数を見渡すものとして扱います。
このギャップに対処するために、自然主義運転条件下での運転行動のパーソナライズを捉えるために設計されたマルチモーダルデータセットであるパーソナライズされた運転行動データセット(PDB)を導入する。
従来のデータセットとは異なり、PDBはセッション間の一貫したルート、車両、照明条件を維持することで外部の影響を最小限に抑える。
128ラインのLiDAR、フロントカメラビデオ、GNSS、9軸IMU、CANバスデータ(スロットル、ブレーキ、ステアリングアングル)、そして顔ビデオや心拍数などのドライバー固有の信号などだ。
データセットには12人の参加者、約270,000のLiDARフレーム、1.6万の画像、6.6TBの生センサデータが含まれている。
処理された軌道データセットは1,669個のセグメントで構成され、それぞれが0.2秒間隔で10秒にまたがる。
ドライバの振る舞いを明示的に把握することにより、PDBはヒューマンファクタ分析、ドライバ識別、パーソナライズされたモビリティアプリケーションのためのユニークなリソースとなり、人間中心のインテリジェントトランスポートシステムの開発に寄与する。
関連論文リスト
- DISC: Dataset for Analyzing Driving Styles In Simulated Crashes for Mixed Autonomy [13.365522429680547]
DISC(Driving Styles In Simulated Crashes)は、混合自律分析のための事前クラッシュシナリオで駆動スタイルをキャプチャする最初のデータセットの1つである。
DISCには、シミュレートされた車両をナビゲートする数百人のドライバーの運転スタイル/行動のクラスが8以上含まれている。
データは、12のシミュレートされた事故シナリオに遭遇する人間のドライバーに関するドライバー中心の研究を通じて収集された。
論文 参考訳(メタデータ) (2025-01-28T15:45:25Z) - VTD: Visual and Tactile Database for Driver State and Behavior Perception [1.6277623188953556]
本稿では,運転状態とインタラクション行動の主観的不確実性に対処する新しい視覚触覚認識手法を提案する。
疲労および散逸条件下でのマルチモーダルデータを包含する包括的データセットを開発した。
論文 参考訳(メタデータ) (2024-12-06T09:31:40Z) - Traffic and Safety Rule Compliance of Humans in Diverse Driving Situations [48.924085579865334]
安全な運転プラクティスを再現する自律システムを開発するためには、人間のデータを分析することが不可欠だ。
本稿では,複数の軌道予測データセットにおける交通・安全規則の適合性の比較評価を行う。
論文 参考訳(メタデータ) (2024-11-04T09:21:00Z) - D2E-An Autonomous Decision-making Dataset involving Driver States and Human Evaluation [6.890077875318333]
Driver to Evaluationデータセット(D2E)は、自律的な意思決定データセットである。
運転状態、車両状態、環境状況、および人間レビュアーによる評価スコアに関するデータが含まれている。
D2Eは、人間のドライバーファクターから評価結果をカバーする1100以上の対話運転ケースデータを含んでいる。
論文 参考訳(メタデータ) (2024-04-12T21:29:18Z) - Situation Awareness for Driver-Centric Driving Style Adaptation [3.568617847600189]
本稿では,車両データに基づいて事前学習した視覚特徴エンコーダに基づく状況認識型運転スタイルモデルを提案する。
実験の結果,提案手法は静的な運転スタイルを著しく上回り,高い状況クラスタを形成していることがわかった。
論文 参考訳(メタデータ) (2024-03-28T17:19:16Z) - DME-Driver: Integrating Human Decision Logic and 3D Scene Perception in
Autonomous Driving [65.04871316921327]
本稿では,自律運転システムの性能と信頼性を高める新しい自律運転システムを提案する。
DME-Driverは、意思決定者として強力な視覚言語モデル、制御信号生成者として計画指向認識モデルを利用する。
このデータセットを利用することで、論理的思考プロセスを通じて高精度な計画精度を実現する。
論文 参考訳(メタデータ) (2024-01-08T03:06:02Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - Driving-Signal Aware Full-Body Avatars [49.89791440532946]
そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-05-21T16:22:38Z) - Driver2vec: Driver Identification from Automotive Data [44.84876493736275]
Driver2vecは、センサーデータの短い10秒間隔からドライバを正確に識別することができる。
Driver2vecは、Nervtechが提供する51人のドライバーのデータセットでトレーニングされている。
論文 参考訳(メタデータ) (2021-02-10T03:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。