論文の概要: Explainable and Human-Grounded AI for Decision Support Systems: The Theory of Epistemic Quasi-Partnerships
- arxiv url: http://arxiv.org/abs/2409.14839v1
- Date: Mon, 23 Sep 2024 09:14:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 20:50:08.804676
- Title: Explainable and Human-Grounded AI for Decision Support Systems: The Theory of Epistemic Quasi-Partnerships
- Title(参考訳): 意思決定支援システムのための説明可能な人為的囲いAI:てんかん準パートナーの理論
- Authors: John Dorsch, Maximilian Moll,
- Abstract要約: 我々は、倫理的で説明可能なAI(XAI)の要求を満たすことは、人間の意思決定者に3種類の人為的説明を提供するAI-DSSを開発することであると論じている。
優れた人為的理由を構成するものに関する現在の理論が、この証拠を適切に説明していないか、あるいは開発に健全な倫理的アドバイスを提供していないかを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the context of AI decision support systems (AI-DSS), we argue that meeting the demands of ethical and explainable AI (XAI) is about developing AI-DSS to provide human decision-makers with three types of human-grounded explanations: reasons, counterfactuals, and confidence, an approach we refer to as the RCC approach. We begin by reviewing current empirical XAI literature that investigates the relationship between various methods for generating model explanations (e.g., LIME, SHAP, Anchors), the perceived trustworthiness of the model, and end-user accuracy. We demonstrate how current theories about what constitutes good human-grounded reasons either do not adequately explain this evidence or do not offer sound ethical advice for development. Thus, we offer a novel theory of human-machine interaction: the theory of epistemic quasi-partnerships (EQP). Finally, we motivate adopting EQP and demonstrate how it explains the empirical evidence, offers sound ethical advice, and entails adopting the RCC approach.
- Abstract(参考訳): AI意思決定支援システム(AI-DSS)の文脈では、倫理的で説明可能なAI(XAI)の要求を満たすことは、人間による意思決定者に対して、理由、反事実、信頼の3つのタイプの説明を提供するためのAI-DSSを開発することである、と論じる。
まず、モデル説明を生成する様々な方法(例えば、LIME、SHAP、Anchors)、モデルの信頼性の認識、エンドユーザー精度の関係を考察する実験的なXAI文献のレビューから始める。
優れた人為的理由を構成するものに関する現在の理論が、この証拠を適切に説明していないか、あるいは開発に健全な倫理的アドバイスを提供していないかを実証する。
このように、我々はヒトと機械の相互作用の新たな理論、すなわちてんかん性準パートナーシップの理論(EQP)を提供する。
最後に、EQPの採用をモチベーションとし、経験的証拠の説明方法を示し、健全な倫理的アドバイスを提供し、RCCアプローチの採用を伴います。
関連論文リスト
- Advancing Interactive Explainable AI via Belief Change Theory [5.842480645870251]
この種の形式化は、対話的な説明を開発するためのフレームワークと方法論を提供する、と我々は主張する。
まず,人間と機械の間で共有される説明情報を表現するために,論理に基づく新しい形式を定義した。
次に、対話型XAIの現実シナリオについて検討し、新しい知識と既存の知識の優先順位が異なり、フォーマリズムがインスタンス化される可能性がある。
論文 参考訳(メタデータ) (2024-08-13T13:11:56Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Towards the New XAI: A Hypothesis-Driven Approach to Decision Support Using Evidence [9.916507773707917]
We describe and evaluation an approach for hypothesis-driven AI based on the Weight of Evidence (WoE) framework。
仮説駆動アプローチは,提案手法と比較して決定精度を高め,信頼度を低下させることを示す。
論文 参考訳(メタデータ) (2024-02-02T10:28:24Z) - Emergent Explainability: Adding a causal chain to neural network
inference [0.0]
本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
論文 参考訳(メタデータ) (2024-01-29T02:28:39Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Categorical Foundations of Explainable AI: A Unifying Theory [8.637435154170916]
本稿では、カテゴリー理論の十分に資金提供された形式主義を用いて、鍵となるXAI概念とプロセスの数学的に厳密な定義を初めて提示する。
i)既存の学習スキームとアーキテクチャをモデル化し、(ii)正式に「説明」という用語を定義し、(iii)XAIの理論的基盤を確立し、(iv)メソッドの説明の一般的に見落とされた側面を分析する。
論文 参考訳(メタデータ) (2023-04-27T11:10:16Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - On the Relationship Between Explanations, Fairness Perceptions, and
Decisions [2.5372245630249632]
AIベースのシステムのレコメンデーションは誤りか不公平であることが知られている。
人間は最終決定者となることがしばしば提案される。
以前の研究は、説明は人間の意思決定者が意思決定の質を高めるのに必須の道であると主張した。
論文 参考訳(メタデータ) (2022-04-27T19:33:36Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。