論文の概要: Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle
- arxiv url: http://arxiv.org/abs/2009.11195v1
- Date: Wed, 23 Sep 2020 14:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:27:44.798253
- Title: Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle
- Title(参考訳): 移動車両から外部物体をマルチモーダル参照するための人物特異的なポインティングと視線行動の研究
- Authors: Amr Gomaa, Guillermo Reyes, Alexandra Alles, Lydia Rupp and Michael
Feld
- Abstract要約: 物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hand pointing and eye gaze have been extensively investigated in automotive
applications for object selection and referencing. Despite significant
advances, existing outside-the-vehicle referencing methods consider these
modalities separately. Moreover, existing multimodal referencing methods focus
on a static situation, whereas the situation in a moving vehicle is highly
dynamic and subject to safety-critical constraints. In this paper, we
investigate the specific characteristics of each modality and the interaction
between them when used in the task of referencing outside objects (e.g.
buildings) from the vehicle. We furthermore explore person-specific differences
in this interaction by analyzing individuals' performance for pointing and gaze
patterns, along with their effect on the driving task. Our statistical analysis
shows significant differences in individual behaviour based on object's
location (i.e. driver's right side vs. left side), object's surroundings,
driving mode (i.e. autonomous vs. normal driving) as well as pointing and gaze
duration, laying the foundation for a user-adaptive approach.
- Abstract(参考訳): 手指と視線は自動車の物体選択と参照の用途で広範囲に研究されている。
大幅な進歩にもかかわらず、既存の車外参照法はこれらのモダリティを別々に考慮している。
さらに、既存のマルチモーダル参照手法は静的な状況に重点を置いているのに対し、移動車両の状況は極めて動的であり、安全性に制約がある。
本稿では,車両から外部オブジェクト(例えば建物)を参照する作業において,各モードの特定の特性と,それら間の相互作用について検討する。
さらに,指差パターンと視線パターンに対する個人のパフォーマンスと,その運転作業への影響を解析することにより,このインタラクションにおける個人固有の差異を探究する。
我々の統計的分析は、物体の位置(運転者側と左サイド)、物体の周囲、運転モード(自律運転と正常運転)、および指差時間と視線時間に基づく個人行動の有意な差異を示し、ユーザ適応アプローチの基礎を築いた。
関連論文リスト
- Looking for a better fit? An Incremental Learning Multimodal Object
Referencing Framework adapting to Individual Drivers [0.0]
自動車産業の急速な進歩により、タッチベースや音声コマンドシステムといった従来の車両のインタラクション方法は、車両外の物体を参照するなど、幅広い非運転関連のタスクには不十分である。
textitIcRegressは、オブジェクトの駆動と参照という2つのタスクに携わるドライバーの振る舞いや特徴に適応する、新しい回帰に基づく漸進的学習手法である。
論文 参考訳(メタデータ) (2024-01-29T12:48:56Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - Adaptive User-Centered Multimodal Interaction towards Reliable and
Trusted Automotive Interfaces [0.0]
自動車の物体選択・参照における手の動き, 頭部ポーズ, 視線, 発話について検討した。
移動体から外部オブジェクトを参照するための,ユーザ中心の適応型マルチモーダル融合手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T13:31:00Z) - Audiovisual Affect Assessment and Autonomous Automobiles: Applications [0.0]
このコントリビューションは、課題を予測し、ロードコンテキスト上のマルチモーダルな"オーディオプラスx"におけるモデリングに影響を与える潜在的な方法を提供することを目的としています。
技術的には、乗用車内の個人を全面的にモデル化し、信頼性の高いダイアリゼーションを行う。
結論として、自動感情分析は、最初に選択されたユースケースにおける自動運転車の適用可能性の点まで成熟した。
論文 参考訳(メタデータ) (2022-03-14T20:39:02Z) - Multimodal Driver Referencing: A Comparison of Pointing to Objects
Inside and Outside the Vehicle [0.0]
我々は、特定のタスクに対して自然な人間と機械の相互作用を達成するために、複数のモダリティを使用する。
視線・頭・指の動きを追跡することで,マルチモーダル融合アーキテクチャを設計する。
本稿では,運転者の参照対象が車両内外にあるかどうかを識別する手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T12:40:13Z) - Multimodal Fusion Using Deep Learning Applied to Driver's Referencing of
Outside-Vehicle Objects [0.0]
深層学習を多モード融合ネットワークに応用し,車外オブジェクトを参照する。
我々は、視線、頭ポーズ、指の指を同時に向けることで、異なる車のポーズにおける参照対象を正確に予測する。
論文 参考訳(メタデータ) (2021-07-26T12:37:06Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Explicit Domain Adaptation with Loosely Coupled Samples [85.9511585604837]
本稿では,ドメイン間の明示的なマッピングを学習するトランスファーラーニングフレームワークを提案する。
その解釈可能性のために、これは自律運転のような安全クリティカルなアプリケーションにとって有益である。
論文 参考訳(メタデータ) (2020-04-24T21:23:45Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。