論文の概要: Advancing Interactive Explainable AI via Belief Change Theory
- arxiv url: http://arxiv.org/abs/2408.06875v2
- Date: Wed, 14 Aug 2024 11:23:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 12:12:37.706080
- Title: Advancing Interactive Explainable AI via Belief Change Theory
- Title(参考訳): 信念変化理論による対話型説明可能なAIの進化
- Authors: Antonio Rago, Maria Vanina Martinez,
- Abstract要約: この種の形式化は、対話的な説明を開発するためのフレームワークと方法論を提供する、と我々は主張する。
まず,人間と機械の間で共有される説明情報を表現するために,論理に基づく新しい形式を定義した。
次に、対話型XAIの現実シナリオについて検討し、新しい知識と既存の知識の優先順位が異なり、フォーマリズムがインスタンス化される可能性がある。
- 参考スコア(独自算出の注目度): 5.842480645870251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI models become ever more complex and intertwined in humans' daily lives, greater levels of interactivity of explainable AI (XAI) methods are needed. In this paper, we propose the use of belief change theory as a formal foundation for operators that model the incorporation of new information, i.e. user feedback in interactive XAI, to logical representations of data-driven classifiers. We argue that this type of formalisation provides a framework and a methodology to develop interactive explanations in a principled manner, providing warranted behaviour and favouring transparency and accountability of such interactions. Concretely, we first define a novel, logic-based formalism to represent explanatory information shared between humans and machines. We then consider real world scenarios for interactive XAI, with different prioritisations of new and existing knowledge, where our formalism may be instantiated. Finally, we analyse a core set of belief change postulates, discussing their suitability for our real world settings and pointing to particular challenges that may require the relaxation or reinterpretation of some of the theoretical assumptions underlying existing operators.
- Abstract(参考訳): AIモデルがより複雑になり、人間の日常生活に絡み合うようになるにつれ、説明可能なAI(XAI)メソッドの相互作用のレベルがさらに高くなる。
本稿では,データ駆動型分類器の論理的表現に新たな情報,すなわち対話型XAIにおけるユーザフィードバックをモデル化する演算子の形式的基礎として,信念変化理論を用いることを提案する。
我々は,このような形式化は,対話的説明を原則的に発展させる枠組みと方法論を提供し,保証された行動を提供し,そのような相互作用の透明性と説明責任を優先するものである,と論じる。
具体的には、まず、人間と機械間で共有される説明情報を表す、論理に基づく新しい形式を定義します。
次に、対話型XAIの現実シナリオについて検討し、新しい知識と既存の知識の優先順位が異なり、フォーマリズムがインスタンス化される可能性がある。
最後に、信念の変化の仮定のコアセットを分析し、実世界の設定に適合する可能性について議論し、既存の演算子を基盤とする理論的な仮定の緩和や再解釈を必要とする可能性のある特定の課題を指摘した。
関連論文リスト
- Explainable and Human-Grounded AI for Decision Support Systems: The Theory of Epistemic Quasi-Partnerships [0.0]
我々は、倫理的で説明可能なAI(XAI)の要求を満たすことは、人間の意思決定者に3種類の人為的説明を提供するAI-DSSを開発することであると論じている。
優れた人為的理由を構成するものに関する現在の理論が、この証拠を適切に説明していないか、あるいは開発に健全な倫理的アドバイスを提供していないかを実証する。
論文 参考訳(メタデータ) (2024-09-23T09:14:25Z) - Approximating Human Models During Argumentation-based Dialogues [4.178382980763478]
説明可能なAI計画(XAIP)の主な課題は、モデルの和解である。
本稿では,AIエージェントによる確率的人間モデル学習と更新を可能にする新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T23:22:18Z) - Emergent Explainability: Adding a causal chain to neural network
inference [0.0]
本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
論文 参考訳(メタデータ) (2024-01-29T02:28:39Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Dialectical Reconciliation via Structured Argumentative Dialogues [14.584998154271512]
我々のフレームワークは,説明者(AIエージェント)と説明者(ヒューマンユーザ)の知識の相違に対処するための弁証的調和を可能にする。
我々のフレームワークは、説明可能性の重要性が重要である領域において、効果的な人間とAIの相互作用を促進するための有望な方向を提供することを示唆している。
論文 参考訳(メタデータ) (2023-06-26T13:39:36Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。