論文の概要: RISEE: A Highly Interactive Naturalistic Driving Trajectories Dataset with Human Subjective Risk Perception and Eye-tracking Information
- arxiv url: http://arxiv.org/abs/2507.19490v2
- Date: Tue, 29 Jul 2025 01:44:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 19:17:25.969757
- Title: RISEE: A Highly Interactive Naturalistic Driving Trajectories Dataset with Human Subjective Risk Perception and Eye-tracking Information
- Title(参考訳): RISEE:人間の主観的リスク認識と視線追跡情報を用いた対話型自然主義運転軌跡データ
- Authors: Xinzheng Wu, Junyi Chen, Peiyi Wang, Shunxiang Chen, Haolan Meng, Yong Shen,
- Abstract要約: 既存のデータセットのほとんどは、主に車両の動き状態と軌道、人間関連の情報に焦点を当てている。
本稿ではリスクインフォームド・サブジェクティブ・アセスメント・アンド・アイトラッキング(RISEE)データセットを構築する。
RISEEデータセットには、人間の主観的評価と、通常の自然主義的な運転軌跡とは別に視線追跡データが含まれている。
- 参考スコア(独自算出の注目度): 4.153091882015747
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the research and development (R&D) and verification and validation (V&V) phases of autonomous driving decision-making and planning systems, it is necessary to integrate human factors to achieve decision-making and evaluation that align with human cognition. However, most existing datasets primarily focus on vehicle motion states and trajectories, neglecting human-related information. In addition, current naturalistic driving datasets lack sufficient safety-critical scenarios while simulated datasets suffer from low authenticity. To address these issues, this paper constructs the Risk-Informed Subjective Evaluation and Eye-tracking (RISEE) dataset which specifically contains human subjective evaluations and eye-tracking data apart from regular naturalistic driving trajectories. By leveraging the complementary advantages of drone-based (high realism and extensive scenario coverage) and simulation-based (high safety and reproducibility) data collection methods, we first conduct drone-based traffic video recording at a highway ramp merging area. After that, the manually selected highly interactive scenarios are reconstructed in simulation software, and drivers' first-person view (FPV) videos are generated, which are then viewed and evaluated by recruited participants. During the video viewing process, participants' eye-tracking data is collected. After data processing and filtering, 3567 valid subjective risk ratings from 101 participants across 179 scenarios are retained, along with 2045 qualified eye-tracking data segments. The collected data and examples of the generated FPV videos are available in our website.
- Abstract(参考訳): 自律運転意思決定・計画システムの研究開発・検証・検証(V&V)段階において、人間の認知と整合した意思決定・評価を実現するためには、人的要因を統合する必要がある。
しかし、既存のデータセットのほとんどは、主に車両の動き状態と軌道に焦点を合わせ、人間関連の情報を無視している。
さらに、現在の自然主義的な運転データセットには十分な安全クリティカルなシナリオがなく、シミュレーションデータセットは信頼性の低下に悩まされている。
これらの課題に対処するため、本研究では、人間の主観的評価と視線追跡データを含むリスクインフォームド・サブジェクティブ・アセスティブ・アセスメント・アンド・アイトラッキング(RISEE)データセットを構築した。
ドローンによる(高現実性と広範囲のシナリオカバレッジ)とシミュレーションによる(高安全性と再現性)データ収集手法の相補的な利点を生かして,我々はまず,ハイウェイランプのマージエリアでドローンによる交通映像記録を行う。
その後、手動で選択した高度にインタラクティブなシナリオをシミュレーションソフトウェアで再構築し、ドライバーのファーストパーソンビュー(FPV)ビデオを生成し、リクルートされた参加者が視聴し評価する。
映像視聴中に、参加者の視線追跡データを収集する。
データ処理とフィルタリングの後に、179のシナリオにわたる101人の参加者による主観的リスク評価3567と、2045の資格付きアイトラッキングデータセグメントが保持される。
生成されたFPVビデオの収集データと例は、私たちのWebサイトで公開されています。
関連論文リスト
- SafeAug: Safety-Critical Driving Data Augmentation from Naturalistic Datasets [7.865191493201841]
本稿では,この問題に対処するために,自然主義的データセットから安全クリティカルな運転データを強化する新しい枠組みを提案する。
本フレームワークでは、まずYOLOv5を用いて車両を検知し、次いで深度推定と3次元変換を行い、車両近接と臨界運転シナリオをより良くシミュレートする。
シミュレーションデータや人工的なデータと比較すると,画像の信頼性を損なうことなく,安全クリティカルな運転データを生成することができる。
論文 参考訳(メタデータ) (2025-01-03T23:46:29Z) - Traffic and Safety Rule Compliance of Humans in Diverse Driving Situations [48.924085579865334]
安全な運転プラクティスを再現する自律システムを開発するためには、人間のデータを分析することが不可欠だ。
本稿では,複数の軌道予測データセットにおける交通・安全規則の適合性の比較評価を行う。
論文 参考訳(メタデータ) (2024-11-04T09:21:00Z) - D2E-An Autonomous Decision-making Dataset involving Driver States and Human Evaluation [6.890077875318333]
Driver to Evaluationデータセット(D2E)は、自律的な意思決定データセットである。
運転状態、車両状態、環境状況、および人間レビュアーによる評価スコアに関するデータが含まれている。
D2Eは、人間のドライバーファクターから評価結果をカバーする1100以上の対話運転ケースデータを含んでいる。
論文 参考訳(メタデータ) (2024-04-12T21:29:18Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - UniSim: A Neural Closed-Loop Sensor Simulator [76.79818601389992]
センサ搭載車両によって記録された1つのログをキャプチャする、ニューラルネットワークシミュレータUniSimを提示する。
UniSimは、静的バックグラウンドと動的アクターの両方を再構築するために、ニューラルネットワーク機能グリッドを構築する。
動的オブジェクトの学習可能な事前情報を組み込んで、畳み込みネットワークを利用して未確認領域を完成させる。
論文 参考訳(メタデータ) (2023-08-03T17:56:06Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Generating and Characterizing Scenarios for Safety Testing of Autonomous
Vehicles [86.9067793493874]
最先端運転シミュレータを用いて,テストシナリオを特徴付け,生成するための効率的なメカニズムを提案する。
次世代シミュレーション(NGSIM)プロジェクトにおける実運転データの特徴付けに本手法を用いる。
事故回避の複雑さに基づいてメトリクスを定義してシナリオをランク付けし、事故発生の可能性を最小限に抑えるための洞察を提供します。
論文 参考訳(メタデータ) (2021-03-12T17:00:23Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Vehicle-Human Interactive Behaviors in Emergency: Data Extraction from
Traffic Accident Videos [0.0]
現在、緊急時の車両と人間の対話行動を研究するには、ほとんど利用できない実際の緊急状況において、大量のデータセットが必要である。
本稿では,実際の事故映像から対話行動データ(車と人間の軌跡)を抽出する,しかし便利な方法を提案する。
リアルタイムの事故ビデオからデータを抽出する主な課題は、記録カメラが校正されておらず、監視の角度が不明であるという事実にある。
論文 参考訳(メタデータ) (2020-03-02T22:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。