論文の概要: How Much is Too Much? Learning Personalised Risk Thresholds in Real-World Driving
- arxiv url: http://arxiv.org/abs/2508.00888v2
- Date: Wed, 13 Aug 2025 14:29:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 16:17:42.780251
- Title: How Much is Too Much? Learning Personalised Risk Thresholds in Real-World Driving
- Title(参考訳): どれくらいの費用がかかるか? 現実の運転で個人化されたリスク閾値を学習する
- Authors: Amir Hossein Kalantari, Eleonora Papadimitriou, Amir Pooyan Afghari,
- Abstract要約: 本研究では,自然主義運転データに基づく適応的かつ個人化されたリスク検出フレームワークを提案する。
このフレームワークは、2つの安全指標、速度重み付け時間と厳しい運転イベントを使用してテストされた。
全体として、このフレームワークは、適応的かつ個人化されたリスク検出の可能性を示し、リアルタイムの安全フィードバックを強化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While naturalistic driving studies have become foundational for providing real-world driver behaviour data, the existing frameworks for identifying risk based on such data have two fundamental limitations: (i) they rely on predefined time windows and fixed thresholds to disentangle risky and normal episodes of driving behaviour, and (ii) they assume stationary behavioural distribution across drivers and trips. These limitations have hindered the ability of the existing frameworks to capture behavioural nuances, adapt to individual variability, or respond to stochastic fluctuations in driving contexts. Thus, there is a need for a unified framework that jointly adapts risk labels and model learning to per-driver behavioural dynamics, a gap this study aims to bridge. We present an adaptive and personalised risk detection framework, built on Belgian naturalistic driving data, integrating a rolling time window with bi-level optimisation and dynamically calibrating both model hyperparameters and driver-specific risk thresholds at the same time. The framework was tested using two safety indicators, speed-weighted time headway and harsh driving events, and three models: Random Forest, XGBoost, and Deep Neural Network (DNN). Speed-weighted time headway yielded more stable and context-sensitive classifications than harsh-event counts. XGBoost maintained consistent performance under changing thresholds, while the DNN excelled in early-risk detection at lower thresholds but exhibited higher variability. The ensemble calibration integrates model-specific thresholds and confidence scores into a unified risk decision, balancing sensitivity and stability. Overall, the framework demonstrates the potential of adaptive and personalised risk detection to enhance real-time safety feedback and support driver-specific interventions within intelligent transport systems.
- Abstract(参考訳): 自然主義的運転研究は、現実世界の運転行動データを提供するための基礎となっているが、そのようなデータに基づいてリスクを特定するための既存のフレームワークには、以下の2つの基本的な制限がある。
一 運転行動の危険・正常なエピソードを乱すために、予め定義された時間窓及び定しきい値に依存すること。
(二)運転者及び旅行者間の静止行動分布を仮定する。
これらの制限は、既存のフレームワークが振る舞いのニュアンスをキャプチャし、個々の変数に適応したり、駆動コンテキストにおける確率的変動に応答する能力を妨げている。
したがって、リスクラベルとモデル学習をドライバーごとの振る舞いダイナミクスに共同で適応する統合フレームワークが必要である。
本稿では,ベルギーの自然主義運転データに基づく適応的かつ個人化されたリスク検出フレームワークを提案し,両レベル最適化とローリングタイムウィンドウの統合と,モデルハイパーパラメータとドライバ固有のリスク閾値の動的校正を行う。
このフレームワークは、速度重み付けされた時間ヘッドウェイと厳しい運転イベントの2つの安全指標と、ランダムフォレスト、XGBoost、ディープニューラルネットワーク(DNN)の3つのモデルを使用してテストされた。
速度重み付き時間ヘッドウェイは、強風数よりも安定で文脈に敏感な分類を得た。
XGBoostは変化しきい値の下で一貫した性能を維持し、DNNは低しきい値での早期リスク検出に優れていたが、高いばらつきを示した。
アンサンブル校正は、モデル固有のしきい値と信頼スコアを統一されたリスク決定に統合し、感度と安定性のバランスをとる。
全体として、このフレームワークは適応的かつ個人化されたリスク検出の可能性を示し、リアルタイムの安全フィードバックを強化し、インテリジェントトランスポートシステム内のドライバ固有の介入をサポートする。
関連論文リスト
- Learning collision risk proactively from naturalistic driving data at scale [3.1457219084519004]
本研究は一般サロゲート安全対策(GSSM)を紹介する。
GSSMは、クラッシュやリスクラベルを必要とせずに、自然主義的な運転から衝突リスクを学習する。
複数のGSSMを訓練するためには、運動キネマティクス、天気、照明など、自然運動からのさまざまなデータを使用する。
即時運動キネマティクスのみを用いた基本的なGSSMは、精度-リコール曲線0.9の領域を達成し、衝突を避けるために2.6秒の中央値の時間を確保できる。
論文 参考訳(メタデータ) (2025-05-19T07:22:32Z) - Natural Reflection Backdoor Attack on Vision Language Model for Autonomous Driving [55.96227460521096]
視覚言語モデル(VLM)は推論能力を高めるために自律運転システムに統合されている。
本稿では,自律運転シナリオにおけるVLMシステムを対象とした自然反射型バックドアアタックを提案する。
我々の発見は、自動運転の厳しいリアルタイム要求を生かした、新たなタイプの攻撃を発見しました。
論文 参考訳(メタデータ) (2025-05-09T20:28:17Z) - RADE: Learning Risk-Adjustable Driving Environment via Multi-Agent Conditional Diffusion [17.46462636610847]
リスク・ドライビング・環境(RADE)は、統計的に現実的でリスク調整可能な交通シーンを生成するシミュレーション・フレームワークである。
RADEはデータから直接リスク条件の行動を学び、コントロール可能なリスクレベルと自然主義的なマルチエージェントインタラクションを保存する。
RADEを実世界のrounDデータセットで検証し、様々なリスクレベルにわたって統計的リアリズムを保存することを示した。
論文 参考訳(メタデータ) (2025-05-06T04:41:20Z) - Minds on the Move: Decoding Trajectory Prediction in Autonomous Driving with Cognitive Insights [18.92479778025183]
運転シナリオでは、車両の軌道は人間の運転者の意思決定プロセスによって決定される。
従来のモデルは人間のドライバーの真の意図を捉えることができず、長期の軌道予測において最適以下の性能をもたらす。
ドライバーの意思決定メカニズムを解釈するために,認知的概念である知覚安全を取り入れた認知情報変換器(CITF)を導入する。
論文 参考訳(メタデータ) (2025-02-27T13:43:17Z) - INSIGHT: Enhancing Autonomous Driving Safety through Vision-Language Models on Context-Aware Hazard Detection and Edge Case Evaluation [7.362380225654904]
INSIGHTは、危険検出とエッジケース評価を強化するために設計された階層型視覚言語モデル(VLM)フレームワークである。
本手法は,マルチモーダルデータ融合を用いて意味表現と視覚表現を統合し,運転シナリオの正確な解釈を可能にする。
BDD100Kデータセットの実験結果は、既存のモデルよりもハザード予測の正確性と正確性を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2025-02-01T01:43:53Z) - Traffic and Safety Rule Compliance of Humans in Diverse Driving Situations [48.924085579865334]
安全な運転プラクティスを再現する自律システムを開発するためには、人間のデータを分析することが不可欠だ。
本稿では,複数の軌道予測データセットにおける交通・安全規則の適合性の比較評価を行う。
論文 参考訳(メタデータ) (2024-11-04T09:21:00Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by Reality [46.909086734963665]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Addressing Inherent Uncertainty: Risk-Sensitive Behavior Generation for
Automated Driving using Distributional Reinforcement Learning [0.0]
自動運転車におけるリスク感応行動生成のための2段階のアプローチを提案する。
まず, 深層分布強化学習を用いて, 不確実な環境下で最適政策を学習する。
実行中は、確立されたリスク基準を適用して最適なリスク感受性行動を選択する。
論文 参考訳(メタデータ) (2021-02-05T11:45:12Z) - Risk-Sensitive Sequential Action Control with Multi-Modal Human
Trajectory Forecasting for Safe Crowd-Robot Interaction [55.569050872780224]
本稿では,リスクに敏感な最適制御に基づく安全な群集ロボットインタラクションのためのオンラインフレームワークを提案し,そのリスクをエントロピーリスク尺度でモデル化する。
私たちのモジュラーアプローチは、クラウドとロボットの相互作用を学習ベースの予測とモデルベースの制御に分離します。
シミュレーション研究と実世界の実験により、このフレームワークは、現場にいる50人以上の人間との衝突を避けながら、安全で効率的なナビゲーションを実現することができることが示された。
論文 参考訳(メタデータ) (2020-09-12T02:02:52Z) - Can Autonomous Vehicles Identify, Recover From, and Adapt to
Distribution Shifts? [104.04999499189402]
トレーニング外の配布(OOD)シナリオは、デプロイ時にエージェントを学ぶ上で一般的な課題である。
インプロバスト模倣計画(RIP)と呼ばれる不確実性を考慮した計画手法を提案する。
提案手法は,OODシーンにおける過信および破滅的な外挿を低減し,分布変化を検知し,回復することができる。
分散シフトを伴うタスク群に対する駆動エージェントのロバスト性を評価するために,自動走行車ノベルシーンベンチマークであるtexttCARNOVEL を導入する。
論文 参考訳(メタデータ) (2020-06-26T11:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。