論文の概要: TransDARC: Transformer-based Driver Activity Recognition with Latent
Space Feature Calibration
- arxiv url: http://arxiv.org/abs/2203.00927v1
- Date: Wed, 2 Mar 2022 08:14:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 15:58:24.424549
- Title: TransDARC: Transformer-based Driver Activity Recognition with Latent
Space Feature Calibration
- Title(参考訳): TransDARC:潜時空間特徴校正を用いたトランスフォーマーに基づくドライバ動作認識
- Authors: Kunyu Peng, Alina Roitberg, Kailun Yang, Jiaming Zhang, Rainer
Stiefelhagen
- Abstract要約: 本稿では、視覚変換器に基づく二次運転行動認識のための視覚ベースのフレームワークと、機能分散キャリブレーションモジュールを提案する。
当社のフレームワークは,すべてのレベルにおいて,公的なDrive&Actベンチマークの過去の成果を上回り,認識率を常に向上させています。
- 参考スコア(独自算出の注目度): 31.908276711898548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional video-based human activity recognition has experienced remarkable
progress linked to the rise of deep learning, but this effect was slower as it
comes to the downstream task of driver behavior understanding. Understanding
the situation inside the vehicle cabin is essential for Advanced Driving
Assistant System (ADAS) as it enables identifying distraction, predicting
driver's intent and leads to more convenient human-vehicle interaction. At the
same time, driver observation systems face substantial obstacles as they need
to capture different granularities of driver states, while the complexity of
such secondary activities grows with the rising automation and increased driver
freedom. Furthermore, a model is rarely deployed under conditions identical to
the ones in the training set, as sensor placements and types vary from vehicle
to vehicle, constituting a substantial obstacle for real-life deployment of
data-driven models. In this work, we present a novel vision-based framework for
recognizing secondary driver behaviours based on visual transformers and an
additional augmented feature distribution calibration module. This module
operates in the latent feature-space enriching and diversifying the training
set at feature-level in order to improve generalization to novel data
appearances, (e.g., sensor changes) and general feature quality. Our framework
consistently leads to better recognition rates, surpassing previous
state-of-the-art results of the public Drive&Act benchmark on all granularity
levels. Our code will be made publicly available at
https://github.com/KPeng9510/TransDARC.
- Abstract(参考訳): 従来のビデオに基づく人間の行動認識は、ディープラーニングの台頭と関連する顕著な進歩を経験してきたが、ドライバの行動理解という下流のタスクに関しては、この効果は遅かった。
運転者の気晴らしを識別し、運転者の意図を予測し、より便利な人間と車両の対話につながるため、キャビン内の状況を理解することはadvanced driving assistant system(adas)にとって不可欠である。
同時に、運転者の観察システムは、異なる運転状態の粒度を捉える必要があるため、かなりの障害に直面し、一方、そのような二次活動の複雑さは、自動化の増大と運転の自由の増大とともに増大する。
さらに、センサ配置やタイプが車両ごとに異なり、データ駆動型モデルの実際の配備において実質的な障害となるため、トレーニングセットのものと同一の条件下では、モデルが展開されることは滅多にない。
本研究では,視覚変換器に基づく2次運転動作認識のための新しい視覚ベースのフレームワークと,付加的な特徴分布キャリブレーションモジュールを提案する。
このモジュールは、新しいデータ外観(例えばセンサーの変更)や一般的な特徴品質への一般化を改善するために、機能レベルでのトレーニングセットの強化と多様化を行う。
我々のフレームワークは、あらゆる粒度の公的なDrive&Actベンチマークの最先端結果を上回る、常により良い認識率をもたらす。
私たちのコードはhttps://github.com/KPeng9510/TransDARCで公開されます。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - EditFollower: Tunable Car Following Models for Customizable Adaptive Cruise Control Systems [28.263763430300504]
本研究では,データ駆動型自動車追従モデルを提案する。
本モデルは,運転者の社会的嗜好を考慮に入れたACCシステムの開発に有用な知見を提供する。
論文 参考訳(メタデータ) (2024-06-23T15:04:07Z) - Situation Awareness for Driver-Centric Driving Style Adaptation [3.568617847600189]
本稿では,車両データに基づいて事前学習した視覚特徴エンコーダに基づく状況認識型運転スタイルモデルを提案する。
実験の結果,提案手法は静的な運転スタイルを著しく上回り,高い状況クラスタを形成していることがわかった。
論文 参考訳(メタデータ) (2024-03-28T17:19:16Z) - Looking for a better fit? An Incremental Learning Multimodal Object
Referencing Framework adapting to Individual Drivers [0.0]
自動車産業の急速な進歩により、タッチベースや音声コマンドシステムといった従来の車両のインタラクション方法は、車両外の物体を参照するなど、幅広い非運転関連のタスクには不十分である。
textitIcRegressは、オブジェクトの駆動と参照という2つのタスクに携わるドライバーの振る舞いや特徴に適応する、新しい回帰に基づく漸進的学習手法である。
論文 参考訳(メタデータ) (2024-01-29T12:48:56Z) - BAT: Behavior-Aware Human-Like Trajectory Prediction for Autonomous
Driving [24.123577277806135]
我々は行動認識軌道予測モデル(BAT)を考案した。
我々のモデルは行動認識、相互作用認識、優先度認識、位置認識モジュールから構成される。
次世代シミュレーション(NGSIM)、ハイウェイドローン(HighD)、ラウンドアバウンドドローン(RounD)、マカオコネクテッド自律運転(MoCAD)データセットにおけるBATの性能を評価する。
論文 参考訳(メタデータ) (2023-12-11T13:27:51Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。