論文の概要: Adaptive XAI in High Stakes Environments: Modeling Swift Trust with Multimodal Feedback in Human AI Teams
- arxiv url: http://arxiv.org/abs/2507.21158v1
- Date: Fri, 25 Jul 2025 01:39:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.005054
- Title: Adaptive XAI in High Stakes Environments: Modeling Swift Trust with Multimodal Feedback in Human AI Teams
- Title(参考訳): ハイステークス環境での適応型XAI:人間のAIチームにおけるマルチモーダルフィードバックによるSwift信頼のモデリング
- Authors: Nishani Fernando, Bahareh Nakisa, Adnan Ahmad, Mohammad Naim Rastgoo,
- Abstract要約: 本稿では,ユーザのリアルタイム認知・感情状態に反応して非侵襲的に機能する適応型XAIの概念的枠組みを提案する。
中心となるのは、ワークロード、ストレス、感情を動的信頼推定にマッピングする、多目的でパーソナライズされた信頼推定モデルである。
- 参考スコア(独自算出の注目度): 2.9629704451989802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective human-AI teaming heavily depends on swift trust, particularly in high-stakes scenarios such as emergency response, where timely and accurate decision-making is critical. In these time-sensitive and cognitively demanding settings, adaptive explainability is essential for fostering trust between human operators and AI systems. However, existing explainable AI (XAI) approaches typically offer uniform explanations and rely heavily on explicit feedback mechanisms, which are often impractical in such high-pressure scenarios. To address this gap, we propose a conceptual framework for adaptive XAI that operates non-intrusively by responding to users' real-time cognitive and emotional states through implicit feedback, thereby enhancing swift trust in high-stakes environments. The proposed adaptive explainability trust framework (AXTF) leverages physiological and behavioral signals, such as EEG, ECG, and eye tracking, to infer user states and support explanation adaptation. At its core is a multi-objective, personalized trust estimation model that maps workload, stress, and emotion to dynamic trust estimates. These estimates guide the modulation of explanation features enabling responsive and personalized support that promotes swift trust in human-AI collaboration. This conceptual framework establishes a foundation for developing adaptive, non-intrusive XAI systems tailored to the rigorous demands of high-pressure, time-sensitive environments.
- Abstract(参考訳): 効果的な人間-AIのチーム編成は、特に緊急対応のような、タイムリーかつ正確な意思決定が重要な高リスクシナリオにおいて、迅速な信頼に大きく依存する。
これらの時間に敏感で認知的な設定では、人間のオペレータとAIシステムの信頼を促進するために適応的な説明責任が不可欠である。
しかしながら、既存の説明可能なAI(XAI)アプローチは通常、一様の説明を提供し、明示的なフィードバックメカニズムに大きく依存する。
このギャップに対処するために,ユーザのリアルタイム認知状態と感情状態に暗黙のフィードバックを通じて応答することで非侵襲的に機能する適応型XAIの概念的枠組みを提案する。
提案する適応的説明可能性信頼フレームワーク(AXTF)は,脳波,心電図,眼球追跡などの生理的・行動的信号を利用して,ユーザの状態を推測し,説明適応を支援する。
中心となるのは、ワークロード、ストレス、感情を動的信頼の推定にマッピングする、多目的でパーソナライズされた信頼推定モデルである。
これらの推定は、人間とAIのコラボレーションにおける迅速な信頼を促進する応答性とパーソナライズされたサポートを可能にする説明機能の調整を導く。
この概念的な枠組みは、高圧で時間に敏感な環境の厳密な要求に合わせた適応的で非侵入的なXAIシステムを開発するための基盤を確立する。
関連論文リスト
- VEXA: Evidence-Grounded and Persona-Adaptive Explanations for Scam Risk Sensemaking [9.22587207148122]
電子メール、ショートメッセージサービス、ソーシャルメディアなどのオンライン詐欺は、日々のリスク評価にますます挑戦している。
我々は,学習者向け詐欺説明を生成するためのエビデンス・グラウンドとペルソナ・アダプティブ・フレームワークであるVEXAを提案する。
論文 参考訳(メタデータ) (2026-02-04T21:16:24Z) - From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models [77.04403907729738]
このサーベイは、受動的診断基準からリアルタイムモデル動作を導くアクティブ制御信号への不確実性の進化をグラフ化する。
3つのフロンティアにまたがるアクティブ制御信号として不確実性がいかに活用されているかを示す。
この調査は、次世代のスケーラブルで信頼性があり、信頼できるAIを構築するためには、新しい不確実性のトレンドを習得することが不可欠である、と論じている。
論文 参考訳(メタデータ) (2026-01-22T06:21:31Z) - TCEval: Using Thermal Comfort to Assess Cognitive and Perceptual Abilities of AI [0.5366500153474746]
熱的快適さは、AIシステムの現実の認知能力を評価するための理想的なパラダイムである。
我々は、AIの3つのコア認知能力を評価する最初の評価フレームワークであるTCEvalを提案する。
論文 参考訳(メタデータ) (2025-12-29T05:41:25Z) - Planning Ahead with RSA: Efficient Signalling in Dynamic Environments by Projecting User Awareness across Future Timesteps [19.242065209157854]
本稿では,Rational Speech Act (RSA) を用いた適応型シグナリングの理論的枠組みを提案する。
この有効性は、マルチステップ計画と現実的なユーザ認識モデルの組み合わせに大きく依存していることが示される。
論文 参考訳(メタデータ) (2025-10-27T13:54:54Z) - DeceptionBench: A Comprehensive Benchmark for AI Deception Behaviors in Real-world Scenarios [57.327907850766785]
現実的な現実のシナリオにまたがる騙しのキャラクタリゼーションは未解明のままである。
DeceptionBenchは、さまざまなドメインにまたがる認知傾向を体系的に評価する最初のベンチマークです。
本研究は,本質的な側面から,ユーザ満足度を優先する自己関心のエゴスティックな傾向を示すモデルや,サイコファンティックな行動を示すモデルについて検討する。
実世界のフィードバックダイナミクスのより現実的なシミュレーションを構築するために,持続的マルチターン相互作用ループを組み込んだ。
論文 参考訳(メタデータ) (2025-10-17T10:14:26Z) - Moral Anchor System: A Predictive Framework for AI Value Alignment and Drift Prevention [0.0]
重要なリスクはバリュードリフトであり、進化するコンテキストや学習ダイナミクス、意図しない最適化によって、AIシステムが一致した値から逸脱する。
我々は,AIエージェントの値ドリフトを検出し,予測し,緩和する新しいフレームワークであるMoral Anchor System(MAS)を提案する。
論文 参考訳(メタデータ) (2025-10-05T07:24:23Z) - Adaptive and Resource-efficient Agentic AI Systems for Mobile and Embedded Devices: A Survey [11.537225726120495]
ファンデーションモデルは、断片化されたアーキテクチャをマルチモーダル推論とコンテキスト適応を備えたスケーラブルなバックボーンに統一することで、AIを再構築した。
FMを認知のコアとして、エージェントは自律性、一般化、自己回帰を達成するためにルールベースの振る舞いを超越する。
この調査は、適応的でリソース効率の良いエージェントAIシステムの、最初の体系的な特徴を提供する。
論文 参考訳(メタデータ) (2025-09-30T02:37:52Z) - STARec: An Efficient Agent Framework for Recommender Systems via Autonomous Deliberate Reasoning [54.28691219536054]
我々は、自律的な熟考的推論機能を備えたレコメンデータシステムを支援する、ゆっくり考えられた拡張エージェントフレームワークSTARecを紹介する。
我々は,先進的推論モデルと嗜好整合型報酬形成から構造化知識の蒸留を組み合わせた2段階のパラダイムであるアンカー強化訓練を開発する。
MovieLens 1MとAmazon CDsベンチマークの実験では、STARecは最先端のベースラインと比較して、大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-08-26T08:47:58Z) - MetAdv: A Unified and Interactive Adversarial Testing Platform for Autonomous Driving [85.04826012938642]
MetAdvは、現実的でダイナミックでインタラクティブな評価を可能にする、新しい対向テストプラットフォームである。
フレキシブルな3D車両モデリングと、シミュレートされた環境と物理的環境のシームレスな遷移をサポートする。
生理的信号のリアルタイムキャプチャとドライバからの行動フィードバックを可能にする。
論文 参考訳(メタデータ) (2025-08-04T03:07:54Z) - GGBond: Growing Graph-Based AI-Agent Society for Socially-Aware Recommender Simulation [2.7083394633019973]
本研究では,ユーザの行動変化を現実的にシミュレートする高忠実な社会シミュレーションプラットフォームを提案する。
このシステムは、重要な心理的メカニズムをカプセル化した5層認知アーキテクチャを備えたSim-User Agentsの集団で構成されている。
特に、心理学的・社会学的理論に基づく近親感-好奇心-相反性--リスク(ICR2)のモチベーションエンジンについて紹介する。
論文 参考訳(メタデータ) (2025-05-27T13:09:21Z) - Confidence-Regulated Generative Diffusion Models for Reliable AI Agent Migration in Vehicular Metaverses [55.70043755630583]
車両用AIエージェントには、環境認識、意思決定、行動実行能力が与えられている。
本稿では、信頼性の高い車両用AIエージェントマイグレーションフレームワークを提案し、信頼性の高い動的マイグレーションと効率的なリソーススケジューリングを実現する。
我々は,AIエージェントのマイグレーション決定を効率的に生成する信頼性制御型生成拡散モデル(CGDM)を開発した。
論文 参考訳(メタデータ) (2025-05-19T05:04:48Z) - Navigating the State of Cognitive Flow: Context-Aware AI Interventions for Effective Reasoning Support [6.758533259752144]
フロー理論は、個人が深い焦点と本質的な動機を経験する最適な認知状態を記述する。
AIが強化された推論では、認知の流れを乱す介入は意思決定を強化するよりも妨げられる。
本稿では、タイプ、タイミング、スケールに基づいて介入を適応する文脈認識型認知強化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T16:35:39Z) - A biologically Inspired Trust Model for Open Multi-Agent Systems that is Resilient to Rapid Performance Fluctuations [0.0]
既存の信頼モデルは、エージェントモビリティ、振る舞いの変化、コールドスタート問題に関連する課題に直面します。
我々は,信頼者が自身の能力を評価し,信頼データをローカルに保存する,生物学的にインスパイアされた信頼モデルを導入する。
この設計はモビリティサポートを改善し、通信オーバーヘッドを減らし、偽情報に抵抗し、プライバシーを保護する。
論文 参考訳(メタデータ) (2025-04-17T08:21:54Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - Teleology-Driven Affective Computing: A Causal Framework for Sustained Well-Being [0.1636303041090359]
本稿では,主要な感情理論を統一するテレロジー駆動型感情コンピューティングフレームワークを提案する。
我々は、個人的な情緒的な出来事の「データバース」を作ることを提唱する。
シミュレーション環境でエージェントを訓練するためのメタ強化学習パラダイムを導入する。
論文 参考訳(メタデータ) (2025-02-24T14:07:53Z) - Visual Agents as Fast and Slow Thinkers [88.1404921693082]
本稿では、Fast and Slow Thinking機構を視覚エージェントに組み込んだFaSTを紹介する。
FaSTは、システム1/2モード間の動的選択にスイッチアダプタを使用する。
モデルの信頼性を調整し、新しいコンテキストデータを統合することで、不確実で目に見えないオブジェクトに取り組む。
論文 参考訳(メタデータ) (2024-08-16T17:44:02Z) - Multi-Agent Dynamic Relational Reasoning for Social Robot Navigation [50.01551945190676]
社会ロボットナビゲーションは、日常生活の様々な状況において有用であるが、安全な人間とロボットの相互作用と効率的な軌道計画が必要である。
本稿では, 動的に進化する関係構造を明示的に推論した系統的関係推論手法を提案する。
マルチエージェント軌道予測とソーシャルロボットナビゲーションの有効性を実証する。
論文 参考訳(メタデータ) (2024-01-22T18:58:22Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Joint Sensing, Communication, and AI: A Trifecta for Resilient THz User
Experiences [118.91584633024907]
テラヘルツ(THz)無線システムに対する拡張現実(XR)体験を最適化するために、新しい共同センシング、通信、人工知能(AI)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T00:39:50Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。