論文の概要: ADAS-TO: A Large-Scale Multimodal Naturalistic Dataset and Empirical Characterization of Human Takeovers during ADAS Engagement
- arxiv url: http://arxiv.org/abs/2603.06986v1
- Date: Sat, 07 Mar 2026 02:05:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.522466
- Title: ADAS-TO: A Large-Scale Multimodal Naturalistic Dataset and Empirical Characterization of Human Takeovers during ADAS Engagement
- Title(参考訳): ADAS-TO:大規模マルチモーダル・ナチュラル・データセットとADASエンゲージメント時のヒトの取り込みの実証的特徴
- Authors: Yuhang Wang, Yiyao Xu, Jingran Sun, Hao Zhou,
- Abstract要約: AAS-TOは,ADAS-手動遷移専用の大規模自然科学データセットである。
データセットには、22の車種にわたる327人のドライバーによる15,659本のテイクオーバー中心の20sクリップが含まれている。
結果として得られたクロスモーダル解析は、交通力学、インフラ劣化、および悪環境にまたがる異なるキネマティックなシグネチャを示している。
- 参考スコア(独自算出の注目度): 18.735120364031538
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Takeovers remain a key safety vulnerability in production ADAS, yet existing public resources rarely provide takeover-centered, real-world data. We present ADAS-TO, the first large-scale naturalistic dataset dedicated to ADAS-to-manual transitions, containing 15,659 takeover-centered 20s clips from 327 drivers across 22 vehicle brands. Each clip synchronizes front-view video with CAN logs. Takeovers are defined as ADAS ON $\rightarrow$ OFF transitions, with the primary trigger labeled as brake, steer, gas, mixed, or system disengagement. We further separate planned driver-initiated terminations (Ego) from forced takeovers (Non-ego) using a rule-based partition. While most events occur within conservative kinematic margins, we identify a long tail of 285 safety-critical cases. For these events, we combine kinematic screening with vision--language (VLM) annotation to attribute hazards and relate them to intervention dynamics. The resulting cross-modal analysis shows distinct kinematic signatures across traffic dynamics, infrastructure degradation, and adverse environments, and finds that in 59.3% of critical cases, actionable visual cues emerge at least 3s before takeover, supporting the potential for semantics-aware early warning beyond late-stage kinematic triggers. The dataset is publicly released at huggingface.co/datasets/HenryYHW/ADAS-TO-Sample.
- Abstract(参考訳): テイクオーバはADASの重要な安全性上の脆弱性であり続けていますが、既存のパブリックリソースがテイクオーバ中心の現実世界のデータを提供することはめったにありません。
AAS-TOはADASから手動への移行に特化した最初の大規模自然主義データセットであり、22の自動車ブランドで327人のドライバーから15,659本のテイクオーバー中心の20秒のクリップを含む。
各クリップは、フロントビデオとCANログを同期させる。
テイクオーバーはADAS ON $\rightarrow$ OFFトランジションとして定義され、メインのトリガーはブレーキ、ステア、ガス、混合またはシステム外装とラベル付けられている。
さらに、ルールベースのパーティションを使用して、計画された運転開始項(Ego)と強制テイクオーバ(Non-ego)を分離する。
ほとんどの事象は、保守的な運動学的マージン内で起こるが、我々は285件の安全クリティカルなケースの長い尾を識別する。
これらの事象に対して,キネマティック・スクリーニングと視覚言語(VLM)アノテーションを併用し,ハザードを属性とし,介入ダイナミクスに関連付ける。
結果として得られたクロスモーダル分析は、交通力学、インフラの劣化、悪環境の異なるキネマティックなシグネチャを示し、59.3%の臨界ケースにおいて、アクティベーション可能な視覚的手がかりがテイクオーバ前に少なくとも3秒以上出現し、後期キネマティックトリガーを超えてセマンティクスに注意を喚起する可能性があることを発見した。
データセットはuggingface.co/datasets/HenryYHW/ADAS-TO-Sampleで公開されている。
関連論文リスト
- SAVeD: A First-Person Social Media Video Dataset for ADAS-equipped vehicle Near-Miss and Crash Event Analyses [0.7874708385247353]
本稿では,ソーシャルメディアコンテンツから収集した大規模ビデオデータセットであるSAVeDを紹介する。
SAVEDは2,119人のファースト・パーソン・ビデオ、様々な場所でのADAS車両の運用、照明条件、気象シナリオを撮影する。
このデータセットには、衝突、回避操作、解脱のためのビデオフレームレベルのアノテーションが含まれており、知覚と意思決定の失敗の両方を分析することができる。
論文 参考訳(メタデータ) (2025-12-19T15:58:52Z) - DAVE: Diverse Atomic Visual Elements Dataset with High Representation of Vulnerable Road Users in Complex and Unpredictable Environments [60.69159598130235]
Vulnerable Road Users (VRU) の高表現による認識手法の評価を目的とした新しいデータセット DAVE を提案する。
DAVEは16種類のアクターカテゴリー(動物、人間、車など)と16種類のアクションタイプ(カットイン、ジグザグ運動、Uターンなど、複雑で稀なケース)を手動でアノテートしたデータセットである。
実験の結果,既存の手法はDAVEで評価すると性能の劣化に悩まされ,将来的なビデオ認識研究のメリットを浮き彫りにしていることがわかった。
論文 参考訳(メタデータ) (2024-12-28T06:13:44Z) - Harnessing Temporal Causality for Advanced Temporal Action Detection [53.654457142657236]
本稿では,因果的注意と因果的マンバを組み合わせたCausalTADを提案する。
Ego4D Challenge 2024では,EPIC-Kitchens Challenge 2024では行動認識,行動検出,音声によるインタラクション検出トラックで1位,Ego4D Challenge 2024ではMoment Queriesトラックで1位にランクインした。
論文 参考訳(メタデータ) (2024-07-25T06:03:02Z) - ReasonNet: End-to-End Driving with Temporal and Global Reasoning [31.319673950804972]
ReasonNetは、運転シーンの時間的情報と世界的情報の両方を広範囲に活用する、新しいエンドツーエンド駆動フレームワークである。
本手法は,異なるフレームにおける特徴間の相互作用や関係を効果的に処理できる。
シーンのグローバルな情報に関する推論は、全体の知覚性能を向上させることもできる。
論文 参考訳(メタデータ) (2023-05-17T18:24:43Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Exploring Event-driven Dynamic Context for Accident Scene Segmentation [33.20305129155542]
交通事故の致命的な場面のほとんどは非常にダイナミックで、以前は見えなかった。
時間分解能の高いイベントベースデータから動的コンテキストを抽出することを提案する。
提案手法は,提案した事故データセットに対して+8.2%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-12-09T16:00:30Z) - The Blessings of Unlabeled Background in Untrimmed Videos [66.99259967869065]
Weakly-supervised Temporal Action Localization (WTAL)は、トレーニング中に利用可能なビデオレベルのアクションラベルのみを使用して、アクションインスタンスの間隔を検出することを目的としています。
重要な課題は、ビデオレベルでも照合されていない背景セグメントから関心のセグメントを区別する方法です。
そこで本稿では,PCA をベースとした時空間平滑化 PCA (TS-PCA) の創始者を提案する。
論文 参考訳(メタデータ) (2021-03-24T13:34:42Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - ISSAFE: Improving Semantic Segmentation in Accidents by Fusing
Event-based Data [34.36975697486129]
本稿では,事故シナリオにおけるセマンティックセグメンテーションに関する課題を,事故データセットDADA-segとともに提示する。
イベントベースのマルチモーダルセグメンテーションアーキテクチャISSAFEを提案する。
提案手法は, 提案した評価セットに対して+8.2% mIoUの性能向上を達成し, 10以上の最先端セグメンテーション法を克服する。
論文 参考訳(メタデータ) (2020-08-20T14:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。