論文の概要: Adaptive XAI in High Stakes Environments: Modeling Swift Trust with Multimodal Feedback in Human AI Teams
- arxiv url: http://arxiv.org/abs/2507.21158v1
- Date: Fri, 25 Jul 2025 01:39:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.005054
- Title: Adaptive XAI in High Stakes Environments: Modeling Swift Trust with Multimodal Feedback in Human AI Teams
- Title(参考訳): ハイステークス環境での適応型XAI:人間のAIチームにおけるマルチモーダルフィードバックによるSwift信頼のモデリング
- Authors: Nishani Fernando, Bahareh Nakisa, Adnan Ahmad, Mohammad Naim Rastgoo,
- Abstract要約: 本稿では,ユーザのリアルタイム認知・感情状態に反応して非侵襲的に機能する適応型XAIの概念的枠組みを提案する。
中心となるのは、ワークロード、ストレス、感情を動的信頼推定にマッピングする、多目的でパーソナライズされた信頼推定モデルである。
- 参考スコア(独自算出の注目度): 2.9629704451989802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective human-AI teaming heavily depends on swift trust, particularly in high-stakes scenarios such as emergency response, where timely and accurate decision-making is critical. In these time-sensitive and cognitively demanding settings, adaptive explainability is essential for fostering trust between human operators and AI systems. However, existing explainable AI (XAI) approaches typically offer uniform explanations and rely heavily on explicit feedback mechanisms, which are often impractical in such high-pressure scenarios. To address this gap, we propose a conceptual framework for adaptive XAI that operates non-intrusively by responding to users' real-time cognitive and emotional states through implicit feedback, thereby enhancing swift trust in high-stakes environments. The proposed adaptive explainability trust framework (AXTF) leverages physiological and behavioral signals, such as EEG, ECG, and eye tracking, to infer user states and support explanation adaptation. At its core is a multi-objective, personalized trust estimation model that maps workload, stress, and emotion to dynamic trust estimates. These estimates guide the modulation of explanation features enabling responsive and personalized support that promotes swift trust in human-AI collaboration. This conceptual framework establishes a foundation for developing adaptive, non-intrusive XAI systems tailored to the rigorous demands of high-pressure, time-sensitive environments.
- Abstract(参考訳): 効果的な人間-AIのチーム編成は、特に緊急対応のような、タイムリーかつ正確な意思決定が重要な高リスクシナリオにおいて、迅速な信頼に大きく依存する。
これらの時間に敏感で認知的な設定では、人間のオペレータとAIシステムの信頼を促進するために適応的な説明責任が不可欠である。
しかしながら、既存の説明可能なAI(XAI)アプローチは通常、一様の説明を提供し、明示的なフィードバックメカニズムに大きく依存する。
このギャップに対処するために,ユーザのリアルタイム認知状態と感情状態に暗黙のフィードバックを通じて応答することで非侵襲的に機能する適応型XAIの概念的枠組みを提案する。
提案する適応的説明可能性信頼フレームワーク(AXTF)は,脳波,心電図,眼球追跡などの生理的・行動的信号を利用して,ユーザの状態を推測し,説明適応を支援する。
中心となるのは、ワークロード、ストレス、感情を動的信頼の推定にマッピングする、多目的でパーソナライズされた信頼推定モデルである。
これらの推定は、人間とAIのコラボレーションにおける迅速な信頼を促進する応答性とパーソナライズされたサポートを可能にする説明機能の調整を導く。
この概念的な枠組みは、高圧で時間に敏感な環境の厳密な要求に合わせた適応的で非侵入的なXAIシステムを開発するための基盤を確立する。
関連論文リスト
- GGBond: Growing Graph-Based AI-Agent Society for Socially-Aware Recommender Simulation [2.7083394633019973]
本研究では,ユーザの行動変化を現実的にシミュレートする高忠実な社会シミュレーションプラットフォームを提案する。
このシステムは、重要な心理的メカニズムをカプセル化した5層認知アーキテクチャを備えたSim-User Agentsの集団で構成されている。
特に、心理学的・社会学的理論に基づく近親感-好奇心-相反性--リスク(ICR2)のモチベーションエンジンについて紹介する。
論文 参考訳(メタデータ) (2025-05-27T13:09:21Z) - Confidence-Regulated Generative Diffusion Models for Reliable AI Agent Migration in Vehicular Metaverses [55.70043755630583]
車両用AIエージェントには、環境認識、意思決定、行動実行能力が与えられている。
本稿では、信頼性の高い車両用AIエージェントマイグレーションフレームワークを提案し、信頼性の高い動的マイグレーションと効率的なリソーススケジューリングを実現する。
我々は,AIエージェントのマイグレーション決定を効率的に生成する信頼性制御型生成拡散モデル(CGDM)を開発した。
論文 参考訳(メタデータ) (2025-05-19T05:04:48Z) - Navigating the State of Cognitive Flow: Context-Aware AI Interventions for Effective Reasoning Support [6.758533259752144]
フロー理論は、個人が深い焦点と本質的な動機を経験する最適な認知状態を記述する。
AIが強化された推論では、認知の流れを乱す介入は意思決定を強化するよりも妨げられる。
本稿では、タイプ、タイミング、スケールに基づいて介入を適応する文脈認識型認知強化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T16:35:39Z) - A biologically Inspired Trust Model for Open Multi-Agent Systems that is Resilient to Rapid Performance Fluctuations [0.0]
既存の信頼モデルは、エージェントモビリティ、振る舞いの変化、コールドスタート問題に関連する課題に直面します。
我々は,信頼者が自身の能力を評価し,信頼データをローカルに保存する,生物学的にインスパイアされた信頼モデルを導入する。
この設計はモビリティサポートを改善し、通信オーバーヘッドを減らし、偽情報に抵抗し、プライバシーを保護する。
論文 参考訳(メタデータ) (2025-04-17T08:21:54Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - Teleology-Driven Affective Computing: A Causal Framework for Sustained Well-Being [0.1636303041090359]
本稿では,主要な感情理論を統一するテレロジー駆動型感情コンピューティングフレームワークを提案する。
我々は、個人的な情緒的な出来事の「データバース」を作ることを提唱する。
シミュレーション環境でエージェントを訓練するためのメタ強化学習パラダイムを導入する。
論文 参考訳(メタデータ) (2025-02-24T14:07:53Z) - Visual Agents as Fast and Slow Thinkers [88.1404921693082]
本稿では、Fast and Slow Thinking機構を視覚エージェントに組み込んだFaSTを紹介する。
FaSTは、システム1/2モード間の動的選択にスイッチアダプタを使用する。
モデルの信頼性を調整し、新しいコンテキストデータを統合することで、不確実で目に見えないオブジェクトに取り組む。
論文 参考訳(メタデータ) (2024-08-16T17:44:02Z) - Multi-Agent Dynamic Relational Reasoning for Social Robot Navigation [50.01551945190676]
社会ロボットナビゲーションは、日常生活の様々な状況において有用であるが、安全な人間とロボットの相互作用と効率的な軌道計画が必要である。
本稿では, 動的に進化する関係構造を明示的に推論した系統的関係推論手法を提案する。
マルチエージェント軌道予測とソーシャルロボットナビゲーションの有効性を実証する。
論文 参考訳(メタデータ) (2024-01-22T18:58:22Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Joint Sensing, Communication, and AI: A Trifecta for Resilient THz User
Experiences [118.91584633024907]
テラヘルツ(THz)無線システムに対する拡張現実(XR)体験を最適化するために、新しい共同センシング、通信、人工知能(AI)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T00:39:50Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。