論文の概要: Interactive Explanations by Conflict Resolution via Argumentative
Exchanges
- arxiv url: http://arxiv.org/abs/2303.15022v2
- Date: Fri, 9 Jun 2023 16:20:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 17:16:26.523460
- Title: Interactive Explanations by Conflict Resolution via Argumentative
Exchanges
- Title(参考訳): 論証交換による紛争解決による対話的説明
- Authors: Antonio Rago, Hengzhi Li and Francesca Toni
- Abstract要約: 我々は,エージェント(AIモデルと人間)間の紛争解決の枠組みとして,計算的議論を活用することで,対話的な説明に焦点をあてる。
具体的には,マルチエージェントシステムにおける動的共有のためのArgumentative eXchanges(AXs)を定義する。
次に、マシンと人間がマシンの予測について対話するXAI設定にAXをデプロイする。
- 参考スコア(独自算出の注目度): 12.853610887703253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the field of explainable AI (XAI) is maturing, calls for interactive
explanations for (the outputs of) AI models are growing, but the
state-of-the-art predominantly focuses on static explanations. In this paper,
we focus instead on interactive explanations framed as conflict resolution
between agents (i.e. AI models and/or humans) by leveraging on computational
argumentation. Specifically, we define Argumentative eXchanges (AXs) for
dynamically sharing, in multi-agent systems, information harboured in
individual agents' quantitative bipolar argumentation frameworks towards
resolving conflicts amongst the agents. We then deploy AXs in the XAI setting
in which a machine and a human interact about the machine's predictions. We
identify and assess several theoretical properties characterising AXs that are
suitable for XAI. Finally, we instantiate AXs for XAI by defining various agent
behaviours, e.g. capturing counterfactual patterns of reasoning in machines and
highlighting the effects of cognitive biases in humans. We show experimentally
(in a simulated environment) the comparative advantages of these behaviours in
terms of conflict resolution, and show that the strongest argument may not
always be the most effective.
- Abstract(参考訳): 説明可能なAI(XAI)の分野が成熟するにつれて、AIモデルの(アウトプットの)インタラクティブな説明を求める声が高まっている。
本稿では,エージェント間の衝突解決(AIモデルや人間など)を計算的議論に頼って,対話的な説明に焦点をあてる。
具体的には,複数エージェントシステムにおいて,エージェント間の衝突を解決するために,個々のエージェントの定量的双極性議論フレームワークに格納された情報を動的に共有するための議論的交換(axs)を定義する。
次に、マシンと人間がマシンの予測について対話するXAI設定にAXをデプロイする。
XAIに適したAXを特徴付けるいくつかの理論的特性を特定し評価する。
最後に,機械における推論の反現実的パターンを捉え,人間の認知バイアスの影響を強調するなど,様々なエージェント行動を定義することで,XAIのためのAXをインスタンス化する。
実験により(シミュレーション環境において)これらの行動の比較的な利点を競合解決の観点から示し、最強の議論が必ずしも最も効果的であるとは限らないことを示した。
関連論文リスト
- Advancing Interactive Explainable AI via Belief Change Theory [5.842480645870251]
この種の形式化は、対話的な説明を開発するためのフレームワークと方法論を提供する、と我々は主張する。
まず,人間と機械の間で共有される説明情報を表現するために,論理に基づく新しい形式を定義した。
次に、対話型XAIの現実シナリオについて検討し、新しい知識と既存の知識の優先順位が異なり、フォーマリズムがインスタンス化される可能性がある。
論文 参考訳(メタデータ) (2024-08-13T13:11:56Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - The role of causality in explainable artificial intelligence [1.049712834719005]
因果性(Causality)とeXplainable Artificial Intelligence(XAI)は、コンピュータ科学の別分野として開発された。
文献を調査し,どの程度因果関係とXAIが絡み合っているかを理解する。
論文 参考訳(メタデータ) (2023-09-18T16:05:07Z) - Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study [0.0]
本研究は、新型コロナウイルスのユースケースを用いて、実装に依存しないXAI説明型の認知負荷、タスクパフォーマンス、タスク時間を測定する。
これらの説明型は, エンドユーザの認知負荷, タスクパフォーマンス, タスク時間に強く影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:52:09Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Explanatory Pluralism in Explainable AI [0.0]
私は、説明のタイプとそれに対応するXAIメソッドの分類をグラフ化します。
AIモデルの内部メカニズムを公開しようとすると、診断説明を生成する。
モデルを安定に一般化したい場合、期待-説明を生成する。
最後に、モデルの使用を正当化したい場合、ロール・エクスラレーションを生成します。
論文 参考訳(メタデータ) (2021-06-26T09:02:06Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。