論文の概要: ALERT Open Dataset and Input-Size-Agnostic Vision Transformer for Driver Activity Recognition using IR-UWB
- arxiv url: http://arxiv.org/abs/2512.12206v1
- Date: Sat, 13 Dec 2025 06:33:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.159616
- Title: ALERT Open Dataset and Input-Size-Agnostic Vision Transformer for Driver Activity Recognition using IR-UWB
- Title(参考訳): IR-UWBを用いたドライバ動作認識のためのALERTオープンデータセットと入力サイズ非依存型視覚変換器
- Authors: Jeongjun Park, Sunwook Hwang, Hyeonho Noh, Jin Mo Yang, Hyun Jong Yang, Saewoong Bahk,
- Abstract要約: ALERTデータセットは,実走行条件下で収集した7つの注意深い運転行動の10,220個のレーダーサンプルを含む。
また、レーダベースドライバアクティビティ認識(DAR)のためのフレームワークであるISA-ViT(Input-size-Agnostic Vision Transformer)を提案する。
実験により、ISA-ViTはUWBベースのDARに対する既存のViTベースのアプローチよりも22.68%精度が向上していることが示された。
- 参考スコア(独自算出の注目度): 9.138582336148065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distracted driving contributes to fatal crashes worldwide. To address this, researchers are using driver activity recognition (DAR) with impulse radio ultra-wideband (IR-UWB) radar, which offers advantages such as interference resistance, low power consumption, and privacy preservation. However, two challenges limit its adoption: the lack of large-scale real-world UWB datasets covering diverse distracted driving behaviors, and the difficulty of adapting fixed-input Vision Transformers (ViTs) to UWB radar data with non-standard dimensions. This work addresses both challenges. We present the ALERT dataset, which contains 10,220 radar samples of seven distracted driving activities collected in real driving conditions. We also propose the input-size-agnostic Vision Transformer (ISA-ViT), a framework designed for radar-based DAR. The proposed method resizes UWB data to meet ViT input requirements while preserving radar-specific information such as Doppler shifts and phase characteristics. By adjusting patch configurations and leveraging pre-trained positional embedding vectors (PEVs), ISA-ViT overcomes the limitations of naive resizing approaches. In addition, a domain fusion strategy combines range- and frequency-domain features to further improve classification performance. Comprehensive experiments demonstrate that ISA-ViT achieves a 22.68% accuracy improvement over an existing ViT-based approach for UWB-based DAR. By publicly releasing the ALERT dataset and detailing our input-size-agnostic strategy, this work facilitates the development of more robust and scalable distracted driving detection systems for real-world deployment.
- Abstract(参考訳): 故障した運転は世界中で致命的な事故に寄与する。
これを解決するために、研究者は、インパルス無線超広帯域(IR-UWB)レーダーを用いたドライバアクティビティ認識(DAR)を使用して、干渉抵抗、低消費電力、プライバシー保護などの利点を提供している。
しかし、2つの課題は採用を制限している: 多様な注意を払われた運転行動をカバーする大規模現実世界のUWBデータセットの欠如、固定入力型ビジョントランスフォーマー(ViT)を非標準次元のUWBレーダデータに適用することの難しさである。
この仕事は両方の課題に対処します。
ALERTデータセットは,実走行条件下で収集した7つの注意深い運転行動の10,220個のレーダーサンプルを含む。
また,レーダベースDARのためのフレームワークであるISA-ViTを提案する。
提案手法は, ドップラーシフトや位相特性などのレーダ固有の情報を保存しながら, ViT入力要求を満たすためにUWBデータを再サイズする。
パッチの設定を調整し、事前訓練された位置埋め込みベクター(PEV)を活用することで、ISA-ViTは、単純最小化アプローチの限界を克服する。
さらに、ドメイン融合戦略は、範囲領域と周波数領域の機能を組み合わせて、分類性能をさらに向上させる。
包括的な実験により、ISA-ViTはUWBベースのDARに対する既存のViTベースのアプローチよりも22.68%の精度の向上を達成している。
ALERTデータセットを公開し、入力サイズに依存しない戦略を詳述することにより、現実世界のデプロイメントのためのより堅牢でスケーラブルな運転検出システムの開発が容易になる。
関連論文リスト
- CORENet: Cross-Modal 4D Radar Denoising Network with LiDAR Supervision for Autonomous Driving [6.251434533663502]
4Dレーダーによる物体検出は、悪天候下での頑丈さに大きな注目を集めている。
4次元レーダーポイント雲のスパースでノイズの多い性質は、効果的な知覚に重大な課題をもたらす。
我々は、LiDAR監視を利用してノイズパターンを識別する新しいクロスモーダル・デノナイズ・フレームワークであるCORENetを提案する。
論文 参考訳(メタデータ) (2025-08-19T03:30:21Z) - TransRAD: Retentive Vision Transformer for Enhanced Radar Object Detection [6.163747364795787]
本稿では,新しい3次元レーダ物体検出モデルであるTransRADを提案する。
本研究では、ディープレーダオブジェクト検出における重複境界ボックスの共通問題を軽減するために、位置認識型NMSを提案する。
その結果,TransRADは2次元および3次元のレーダ検出タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-29T20:21:41Z) - Leveraging Self-Supervised Instance Contrastive Learning for Radar
Object Detection [7.728838099011661]
本稿では,レーダ物体検出装置を事前訓練する際,RCLを例に紹介する。
我々は、より少ないデータで学習するために、物体検出器のバックボーン、頭、首を事前訓練することを目指している。
論文 参考訳(メタデータ) (2024-02-13T12:53:33Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Automotive RADAR sub-sampling via object detection networks: Leveraging
prior signal information [18.462990836437626]
自動運転技術への関心が高まり、自動車レーダーはますます注目を集めている。
本研究では,従来の環境条件の知識に基づいて,より詳細な/正確な再構築を必要とする地域を特定するための適応型レーダサブサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-21T05:32:28Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - ViT-DD: Multi-Task Vision Transformer for Semi-Supervised Driver
Distraction Detection [5.709028939815015]
本稿では, ドライバ・ディトラクション検出用マルチモーダル・ビジョン・トランス (ViT-DD) を提案する。
注意欠陥検出と運転者の感情認識の両方に関連するトレーニング信号からの帰納的情報を組み込む。
提案したViT-DDは、SFDDDデータセットとAUCDDデータセットでそれぞれ6.5%と0.9%の精度で、既存の最先端のドライバーの気晴らし検出方法を上回っている。
論文 参考訳(メタデータ) (2022-09-19T16:56:51Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。