論文の概要: Looking for a better fit? An Incremental Learning Multimodal Object
Referencing Framework adapting to Individual Drivers
- arxiv url: http://arxiv.org/abs/2401.16123v2
- Date: Wed, 7 Feb 2024 11:25:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 19:12:59.470443
- Title: Looking for a better fit? An Incremental Learning Multimodal Object
Referencing Framework adapting to Individual Drivers
- Title(参考訳): もっとよくフィットするか?
個人ドライバに適応したインクリメンタル学習型マルチモーダルオブジェクト参照フレームワーク
- Authors: Amr Gomaa and Guillermo Reyes and Michael Feld and Antonio Kr\"uger
- Abstract要約: 自動車産業の急速な進歩により、タッチベースや音声コマンドシステムといった従来の車両のインタラクション方法は、車両外の物体を参照するなど、幅広い非運転関連のタスクには不十分である。
textitIcRegressは、オブジェクトの駆動と参照という2つのタスクに携わるドライバーの振る舞いや特徴に適応する、新しい回帰に基づく漸進的学習手法である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of the automotive industry towards automated and
semi-automated vehicles has rendered traditional methods of vehicle
interaction, such as touch-based and voice command systems, inadequate for a
widening range of non-driving related tasks, such as referencing objects
outside of the vehicle. Consequently, research has shifted toward gestural
input (e.g., hand, gaze, and head pose gestures) as a more suitable mode of
interaction during driving. However, due to the dynamic nature of driving and
individual variation, there are significant differences in drivers' gestural
input performance. While, in theory, this inherent variability could be
moderated by substantial data-driven machine learning models, prevalent
methodologies lean towards constrained, single-instance trained models for
object referencing. These models show a limited capacity to continuously adapt
to the divergent behaviors of individual drivers and the variety of driving
scenarios. To address this, we propose \textit{IcRegress}, a novel
regression-based incremental learning approach that adapts to changing behavior
and the unique characteristics of drivers engaged in the dual task of driving
and referencing objects. We suggest a more personalized and adaptable solution
for multimodal gestural interfaces, employing continuous lifelong learning to
enhance driver experience, safety, and convenience. Our approach was evaluated
using an outside-the-vehicle object referencing use case, highlighting the
superiority of the incremental learning models adapted over a single trained
model across various driver traits such as handedness, driving experience, and
numerous driving conditions. Finally, to facilitate reproducibility, ease
deployment, and promote further research, we offer our approach as an
open-source framework at \url{https://github.com/amrgomaaelhady/IcRegress}.
- Abstract(参考訳): 自動車産業の、自動および半自動車両への急速な進歩は、タッチベースや音声コマンドシステムのような従来の車両インタラクションの手法を、車両外の物体を参照するなど、幅広い非運転関連のタスクに不適当にしている。
その結果、運転時のより適切な相互作用として、ジェスチャー入力(手、視線、頭ポーズジェスチャーなど)へと研究が移行した。
しかし,運転の動的特性と個人差により,運転者のジェストラル入力性能には有意な差がある。
理論上、この固有の変数は、データ駆動機械学習モデルによって緩和される可能性があるが、一般的な方法論は、オブジェクト参照のための制約付きシングルインスタンストレーニングモデルに傾いている。
これらのモデルでは、個々のドライバーの発散挙動や様々な運転シナリオに継続的に適応する能力が限られている。
そこで本稿では,オブジェクトの駆動と参照という2つのタスクに携わるドライバの振る舞いや特徴に適応する,新しい回帰に基づく漸進的学習手法である‘textit{IcRegress} を提案する。
ドライバエクスペリエンス,安全性,利便性を高めるために,生涯学習を継続することで,マルチモーダルなジェストラルインタフェースをよりパーソナライズし,適応可能なソリューションを提案する。
提案手法は車外オブジェクト参照のユースケースを用いて評価され,手作業,運転経験,運転条件など,さまざまなドライバ特性にまたがる1つの訓練モデルに適応したインクリメンタルラーニングモデルの優位性を強調した。
最後に、再現性を促進し、デプロイを容易にし、さらなる研究を促進するために、我々は、オープンソースフレームワークとして、 \url{https://github.com/amrgomaaelhady/IcRegress}でアプローチを提供しています。
関連論文リスト
- MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Parameterized Decision-making with Multi-modal Perception for Autonomous
Driving [12.21578713219778]
AUTOと呼ばれる深層強化学習に基づくマルチモーダル認識を用いたパラメータ化意思決定フレームワークを提案する。
ハイブリッド報酬関数は、安全、交通効率、乗客の快適性、および最適な行動を生成するためのフレームワークを導く影響を考慮に入れている。
論文 参考訳(メタデータ) (2023-12-19T08:27:02Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Adaptive User-Centered Multimodal Interaction towards Reliable and
Trusted Automotive Interfaces [0.0]
自動車の物体選択・参照における手の動き, 頭部ポーズ, 視線, 発話について検討した。
移動体から外部オブジェクトを参照するための,ユーザ中心の適応型マルチモーダル融合手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T13:31:00Z) - TransDARC: Transformer-based Driver Activity Recognition with Latent
Space Feature Calibration [31.908276711898548]
本稿では、視覚変換器に基づく二次運転行動認識のための視覚ベースのフレームワークと、機能分散キャリブレーションモジュールを提案する。
当社のフレームワークは,すべてのレベルにおいて,公的なDrive&Actベンチマークの過去の成果を上回り,認識率を常に向上させています。
論文 参考訳(メタデータ) (2022-03-02T08:14:06Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - ML-PersRef: A Machine Learning-based Personalized Multimodal Fusion
Approach for Referencing Outside Objects From a Moving Vehicle [0.0]
シミュレーション環境下での長い運転経路を維持しながら、車外物体を参照するための学習に基づくマルチモーダル融合手法を提案する。
また,各ドライバに対して適応型パーソナライズシステムを実現するために,参照タスクの完了時にユーザ間の行動差を利用する方法を示す。
論文 参考訳(メタデータ) (2021-11-03T16:22:17Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z) - A Probabilistic Framework for Imitating Human Race Driver Behavior [31.524303667746643]
本稿では,運転行動モデリングのタスクを複数のモジュールに分割するモジュラーフレームワークProMoDを提案する。
確率的運動プリミティブを用いて大域的目標軌道分布を学習し、局所経路生成にウエイドを使用し、ニューラルネットワークにより対応する行動選択を行う。
シミュレーションカーレースセッティングの実験は、他の模倣学習アルゴリズムと比較して、模倣精度とロバスト性にかなりの利点がある。
論文 参考訳(メタデータ) (2020-01-22T20:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。