論文の概要: Predicting Driver's Perceived Risk: a Model Based on Semi-Supervised Learning Strategy
- arxiv url: http://arxiv.org/abs/2504.12665v1
- Date: Thu, 17 Apr 2025 05:50:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:35:24.722907
- Title: Predicting Driver's Perceived Risk: a Model Based on Semi-Supervised Learning Strategy
- Title(参考訳): 運転者の認識リスクを予測する--半監督学習戦略に基づくモデル
- Authors: Siwei Huang, Chenhao Yang, Chuan Hu,
- Abstract要約: ドライバーの主観的リスク(DSPR)モデルは、異方性と減衰を動的に引き起こすメカニズムとして認識されるリスクについて提案される。
20人の参加者がドライバー・イン・ザ・ループ実験のために採用され、様々な自動走行シナリオを経験する際に、リアルタイムの主観的リスクレーティング(SRR)を報告します。
DSPRは3つの最先端リスクモデルと比較して、SRRの予測において87.91%の予測精度を達成している。
- 参考スコア(独自算出の注目度): 7.227510169013427
- License:
- Abstract: Drivers' perception of risk determines their acceptance, trust, and use of the Automated Driving Systems (ADSs). However, perceived risk is subjective and difficult to evaluate using existing methods. To address this issue, a driver's subjective perceived risk (DSPR) model is proposed, regarding perceived risk as a dynamically triggered mechanism with anisotropy and attenuation. 20 participants are recruited for a driver-in-the-loop experiment to report their real-time subjective risk ratings (SRRs) when experiencing various automatic driving scenarios. A convolutional neural network and bidirectional long short-term memory network with temporal pattern attention (CNN-Bi-LSTM-TPA) is embedded into a semi-supervised learning strategy to predict SRRs, aiming to reduce data noise caused by subjective randomness of participants. The results illustrate that DSPR achieves the highest prediction accuracy of 87.91% in predicting SRRs, compared to three state-of-the-art risk models. The semi-supervised strategy improves accuracy by 20.12%. Besides, CNN-Bi-LSTM-TPA network presents the highest accuracy among four different LSTM structures. This study offers an effective method for assessing driver's perceived risk, providing support for the safety enhancement of ADS and driver's trust improvement.
- Abstract(参考訳): ドライバーのリスクに対する認識は、オートマチック・ドライビング・システム(ADS)の受け入れ、信頼、利用を決定する。
しかし、認知リスクは主観的であり、既存の手法による評価は困難である。
この問題に対処するために,運転者の主観的認知リスク(DSPR)モデルを提案する。
20人の参加者がドライバー・イン・ザ・ループ実験のために採用され、様々な自動走行シナリオを経験する際に、リアルタイムの主観的リスクレーティング(SRR)を報告します。
時間的パターンアテンション(CNN-Bi-LSTM-TPA)を備えた畳み込みニューラルネットワークと双方向長短期記憶ネットワークを半教師付き学習戦略に組み込んでSRRを予測する。
その結果、DSPRは3つの最先端リスクモデルと比較して、SRRの予測において87.91%の予測精度を達成していることがわかった。
半監督戦略は精度を20.12%向上させる。
さらに、CNN-Bi-LSTM-TPAネットワークは、4つの異なるLSTM構造の中で最高精度を示す。
本研究は,ADSの安全性向上と運転者の信頼向上を支援するために,運転者の認識するリスクを評価する効果的な方法を提案する。
関連論文リスト
- Risk-Averse Certification of Bayesian Neural Networks [70.44969603471903]
本稿では,RAC-BNNと呼ばれるベイズニューラルネットワークに対するリスク・アバース認証フレームワークを提案する。
提案手法はサンプリングと最適化を利用して,BNNの出力集合の音響近似を計算する。
我々は,RAC-BNNを回帰および分類ベンチマークで検証し,その性能を最先端の手法と比較した。
論文 参考訳(メタデータ) (2024-11-29T14:22:51Z) - Passenger hazard perception based on EEG signals for highly automated driving vehicles [23.322910031715583]
本研究は,乗用車間相互作用の神経機構を解明し,乗用車認知モデル(PCM)と乗用車脳波復号戦略(PEDS)の開発に繋がるものである。
Central to PEDSは、空間的および時間的脳波データパターンをキャプチャする新しい畳み込みリカレントニューラルネットワーク(CRNN)である。
我々の研究は、事前観測された脳波データの予測能力、危険シナリオの検出の強化、より安全な自動運転車のためのネットワーク駆動型フレームワークの提供を強調した。
論文 参考訳(メタデータ) (2024-08-29T07:32:30Z) - Digital Twin-based Driver Risk-Aware Intelligent Mobility Analytics for Urban Transportation Management [18.015270631863665]
本稿では,デジタルツインをベースとしたドライバリスク認識知能モビリティ分析システムを提案する。
DT-DIMAシステムはパンティルトカメラからのリアルタイムトラフィック情報を統合する。
このシステムは、ネットワーク全体のモビリティと安全性のリスクをリアルタイムで予測する。
論文 参考訳(メタデータ) (2024-07-03T01:44:22Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Safe Deployment for Counterfactual Learning to Rank with Exposure-Based
Risk Minimization [63.93275508300137]
本稿では,安全な配置を理論的に保証する新たなリスク認識型対実学習ランク法を提案する。
提案手法の有効性を実験的に検証し,データが少ない場合の動作不良の早期回避に有効であることを示す。
論文 参考訳(メタデータ) (2023-04-26T15:54:23Z) - Is my Driver Observation Model Overconfident? Input-guided Calibration
Networks for Reliable and Interpretable Confidence Estimates [23.449073032842076]
運転観察モデルは完璧な条件下で展開されることは滅多にない。
生のニューラルネットワークベースのアプローチは、予測品質を大幅に過大評価する傾向がある。
本稿では,CARing(Callibrated Action Recognition with Input Guidance)という,ビデオ表現による信頼度向上学習のためのニューラルネットワークを活用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-10T12:43:58Z) - Automatic Risk Adaptation in Distributional Reinforcement Learning [26.113528145137497]
実践的応用における強化学習(RL)エージェントの使用は、最適以下の結果を考慮する必要がある。
これは特に安全クリティカルな環境において重要であり、エラーは高いコストや損害をもたらす可能性がある。
リスク認識エージェントとリスク認識エージェントの両方と比較して, 失敗率を最大7倍に低下させ, 一般化性能を最大14%向上させた。
論文 参考訳(メタデータ) (2021-06-11T11:31:04Z) - Addressing Inherent Uncertainty: Risk-Sensitive Behavior Generation for
Automated Driving using Distributional Reinforcement Learning [0.0]
自動運転車におけるリスク感応行動生成のための2段階のアプローチを提案する。
まず, 深層分布強化学習を用いて, 不確実な環境下で最適政策を学習する。
実行中は、確立されたリスク基準を適用して最適なリスク感受性行動を選択する。
論文 参考訳(メタデータ) (2021-02-05T11:45:12Z) - Risk-Sensitive Sequential Action Control with Multi-Modal Human
Trajectory Forecasting for Safe Crowd-Robot Interaction [55.569050872780224]
本稿では,リスクに敏感な最適制御に基づく安全な群集ロボットインタラクションのためのオンラインフレームワークを提案し,そのリスクをエントロピーリスク尺度でモデル化する。
私たちのモジュラーアプローチは、クラウドとロボットの相互作用を学習ベースの予測とモデルベースの制御に分離します。
シミュレーション研究と実世界の実験により、このフレームワークは、現場にいる50人以上の人間との衝突を避けながら、安全で効率的なナビゲーションを実現することができることが示された。
論文 参考訳(メタデータ) (2020-09-12T02:02:52Z) - Can Autonomous Vehicles Identify, Recover From, and Adapt to
Distribution Shifts? [104.04999499189402]
トレーニング外の配布(OOD)シナリオは、デプロイ時にエージェントを学ぶ上で一般的な課題である。
インプロバスト模倣計画(RIP)と呼ばれる不確実性を考慮した計画手法を提案する。
提案手法は,OODシーンにおける過信および破滅的な外挿を低減し,分布変化を検知し,回復することができる。
分散シフトを伴うタスク群に対する駆動エージェントのロバスト性を評価するために,自動走行車ノベルシーンベンチマークであるtexttCARNOVEL を導入する。
論文 参考訳(メタデータ) (2020-06-26T11:07:32Z) - Learning Bounds for Risk-sensitive Learning [86.50262971918276]
リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
論文 参考訳(メタデータ) (2020-06-15T05:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。