論文の概要: Effects of Multimodal Explanations for Autonomous Driving on Driving Performance, Cognitive Load, Expertise, Confidence, and Trust
- arxiv url: http://arxiv.org/abs/2401.04206v4
- Date: Thu, 13 Jun 2024 17:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-15 00:06:54.583946
- Title: Effects of Multimodal Explanations for Autonomous Driving on Driving Performance, Cognitive Load, Expertise, Confidence, and Trust
- Title(参考訳): 自律運転のマルチモーダル説明が運転性能、認知負荷、専門性、信頼性、信頼に及ぼす影響
- Authors: Robert Kaufman, Jean Costa, Everlyne Kimani,
- Abstract要約: 我々は、AIコーチの説明コミュニケーションが、パフォーマンス駆動専門家の指示をモデルにした影響を検証した。
結果として、AIコーチングは、初心者にパフォーマンス駆動スキルを効果的に教えることができることを示している。
効率的なHMI通信を設計する際には,効率的なモダリティに適した説明を選択すべきである。
- 参考スコア(独自算出の注目度): 2.9143343479274675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in autonomous driving provide an opportunity for AI-assisted driving instruction that directly addresses the critical need for human driving improvement. How should an AI instructor convey information to promote learning? In a pre-post experiment (n = 41), we tested the impact of an AI Coach's explanatory communications modeled after performance driving expert instructions. Participants were divided into four (4) groups to assess two (2) dimensions of the AI coach's explanations: information type ('what' and 'why'-type explanations) and presentation modality (auditory and visual). We compare how different explanatory techniques impact driving performance, cognitive load, confidence, expertise, and trust via observational learning. Through interview, we delineate participant learning processes. Results show AI coaching can effectively teach performance driving skills to novices. We find the type and modality of information influences performance outcomes. Differences in how successfully participants learned are attributed to how information directs attention, mitigates uncertainty, and influences overload experienced by participants. Results suggest efficient, modality-appropriate explanations should be opted for when designing effective HMI communications that can instruct without overwhelming. Further, results support the need to align communications with human learning and cognitive processes. We provide eight design implications for future autonomous vehicle HMI and AI coach design.
- Abstract(参考訳): 自動運転の進歩は、人間の運転改善の重要なニーズに直接対処するAI支援運転指導の機会を提供する。
AIインストラクターは学習を促進するためにどのように情報を伝えるべきか?
プレポスト実験(n = 41)では、AIコーチの説明コミュニケーションが、パフォーマンス駆動の専門家による指示をモデルにした影響を検証した。
参加者は、4つの(4)グループに分けられ、AIコーチの説明の2つの次元、情報タイプ(「何」と「なぜ」の2つの説明)とプレゼンテーションモダリティ(聴覚と視覚)が評価された。
我々は、異なる説明的手法がパフォーマンス、認知的負荷、信頼、専門知識、そして観察的学習を通しての信頼にどのように影響するかを比較した。
インタビューを通じて、参加者の学習プロセスを明確にする。
結果として、AIコーチングは、初心者にパフォーマンス駆動スキルを効果的に教えることができることを示している。
情報のタイプとモダリティがパフォーマンスに影響を及ぼすことがわかった。
参加者の学習の成功度の違いは、情報がどのように注意を向け、不確実性を軽減し、参加者が経験した過負荷に影響を与えるかに起因する。
以上の結果から,HMI通信を効果的に設計する際には,効率よくモダリティに適合した説明を選択すべきであることが示唆された。
さらに、結果は、コミュニケーションと人間の学習と認知プロセスとの整合性の必要性を支持する。
将来の自動運転車HMIとAIコーチ設計には8つの設計上の意味がある。
関連論文リスト
- KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [75.78948575957081]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Let people fail! Exploring the influence of explainable virtual and robotic agents in learning-by-doing tasks [45.23431596135002]
本研究は,古典的対パートナー意識による説明が学習作業中の人間の行動とパフォーマンスに与える影響を比較検討した。
その結果, パートナー意識による説明は, 関係する人工エージェントの種類によって, 参加者に異なる影響を及ぼした。
論文 参考訳(メタデータ) (2024-11-15T13:22:04Z) - Efficient Reinforcement Learning for Autonomous Driving with
Parameterized Skills and Priors [16.87227671645374]
ASAP-RLは自律運転のための効率的な強化学習アルゴリズムである。
専門的なデモンストレーションを制御空間からスキル空間に変換するために,スキルパラメータ逆回復法を提案する。
本手法は, 単純かつスパースな報酬を付与した対話型高密度交通運転タスクにおいて, 提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-08T01:39:35Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - SalienTrack: providing salient information for semi-automated
self-tracking feedback with model explanations [31.87742708229638]
我々は、いつフィードバックを提供するか、どのように提示するかを定義するセルフトラックフィードバック・サプライアンシ・フレームワークを提案する。
私たちは、ユーザーが追跡された各イベントから学習するかどうかを予測するために、機械学習モデルをトレーニングします。
自己追跡における学習可能性の意義とモデル説明可能性の追加がフィードバック体験を改善するための機会をいかに拡張するかを論じる。
論文 参考訳(メタデータ) (2021-09-21T14:53:47Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。