論文の概要: Interactive Explanations by Conflict Resolution via Argumentative
Exchanges
- arxiv url: http://arxiv.org/abs/2303.15022v1
- Date: Mon, 27 Mar 2023 09:15:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-03-28 16:19:10.713445
- Title: Interactive Explanations by Conflict Resolution via Argumentative
Exchanges
- Title(参考訳): 論証交換による紛争解決による対話的説明
- Authors: Antonio Rago, Hengzhi Li and Francesca Toni
- Abstract要約: 我々は,エージェント(AIモデルと人間)間の紛争解決の枠組みとして,計算的議論を活用することで,対話的な説明に焦点をあてる。
具体的には,マルチエージェントシステムにおける動的共有のためのArgumentative eXchanges(AXs)を定義する。
次に、マシンと人間がマシンの予測について対話するXAI設定にAXをデプロイする。
- 参考スコア(独自算出の注目度): 12.853610887703253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the field of explainable AI (XAI) is maturing, calls for interactive
explanations for (the outputs of) AI models are growing, but the
state-of-the-art predominantly focuses on static explanations. In this paper,
we focus instead on interactive explanations framed as conflict resolution
between agents (i.e. AI models and/or humans) by leveraging on computational
argumentation. Specifically, we define Argumentative eXchanges (AXs) for
dynamically sharing, in multi-agent systems, information harboured in
individual agents' quantitative bipolar argumentation frameworks towards
resolving conflicts amongst the agents. We then deploy AXs in the XAI setting
in which a machine and a human interact about the machine's predictions. We
identify and assess several theoretical properties characterising AXs that are
suitable for XAI. Finally, we instantiate AXs for XAI by defining various agent
behaviours, e.g. capturing counterfactual patterns of reasoning in machines and
highlighting the effects of cognitive biases in humans. We show experimentally
(in a simulated environment) the comparative advantages of these behaviours in
terms of conflict resolution, and show that the strongest argument may not
always be the most effective.
- Abstract(参考訳): 説明可能なAI(XAI)の分野が成熟するにつれて、AIモデルの(アウトプットの)インタラクティブな説明を求める声が高まっている。
本稿では,エージェント間の衝突解決(AIモデルや人間など)を計算的議論に頼って,対話的な説明に焦点をあてる。
具体的には,複数エージェントシステムにおいて,エージェント間の衝突を解決するために,個々のエージェントの定量的双極性議論フレームワークに格納された情報を動的に共有するための議論的交換(axs)を定義する。
次に、マシンと人間がマシンの予測について対話するXAI設定にAXをデプロイする。
XAIに適したAXを特徴付けるいくつかの理論的特性を特定し評価する。
最後に,機械における推論の反現実的パターンを捉え,人間の認知バイアスの影響を強調するなど,様々なエージェント行動を定義することで,XAIのためのAXをインスタンス化する。
実験により(シミュレーション環境において)これらの行動の比較的な利点を競合解決の観点から示し、最強の議論が必ずしも最も効果的であるとは限らないことを示した。
関連論文リスト
- Beyond Explainable AI (XAI): An Overdue Paradigm Shift and Post-XAI Research Directions [95.59915390053588]
本研究では、ディープニューラルネットワーク(DNN)と大規模言語モデル(LLM)に焦点をあてる、説明可能な人工知能(XAI)アプローチに焦点を当てる。
より深い根本原因に起因する致命的な症状(2つのパラドックス、2つの概念的混乱、5つの誤った仮定)について論じる。
XAIの限界を超えて、信頼性と認定されたAI開発に向けた4つのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2026-02-27T16:58:27Z) - Emergent, not Immanent: A Baradian Reading of Explainable AI [37.51348424835944]
我々は、人間、文脈、解釈装置とのAIモデルの位置的絡み合いから解釈が現れることを論じる。
本稿では,創発的解釈を支援するXAIインタフェースの設計指針を提案する。
論文 参考訳(メタデータ) (2026-01-21T14:32:40Z) - DixitWorld: Evaluating Multimodal Abductive Reasoning in Vision-Language Models with Multi-Agent Dixit Gameplay [50.31585196187091]
マルチモーダルな帰納的推論を分解するための総合評価スイートであるDixitWorldを紹介した。
DIXITWORLDは,仮説生成と仮説選択を評価する動的マルチエージェント環境であるDixitArenaという,2つのコアコンポーネントを備えている。
DixitArenaの結果は、異なる、役割に依存した行動を明らかにしている。
論文 参考訳(メタデータ) (2025-10-11T08:48:48Z) - Disagreements in Reasoning: How a Model's Thinking Process Dictates Persuasion in Multi-Agent Systems [49.69773210844221]
本稿では,説得力はモデルスケールの関数である,という一般的な仮説に挑戦する。
一連のマルチエージェントの説得実験を通じて、パーサーション・デュナリティ(Persuasion Duality)と呼ばれる基本的なトレードオフを明らかにする。
以上の結果から, LRMの推理過程は説得に対する抵抗性が大きく, 当初の信念をより堅固に維持していることが明らかとなった。
論文 参考訳(メタデータ) (2025-09-25T12:03:10Z) - Holistic Explainable AI (H-XAI): Extending Transparency Beyond Developers in AI-Driven Decision Making [4.852258514542496]
本稿では,従来のXAI手法と因果評価手法を統合する統合フレームワークであるH-XAI(H-XAI)を紹介し,対話的マルチメソッドプロセスとしての説明を支援する。
H-XAIは、ステークホルダーが一連の質問をしたり、仮説をテストしたり、モデル行動と自動的に構築されたランダムでバイアスのあるベースラインを比較することを可能にする。
インスタンスレベルの説明とグローバルな説明を組み合わせて、各ステークホルダの目標に適応し、個々の決定を理解し、グループレベルの偏見を評価し、摂動の下で堅牢性を評価する。
論文 参考訳(メタデータ) (2025-08-07T19:06:08Z) - The Effect of Explainable AI-based Decision Support on Human Task Performance: A Meta-Analysis [0.0]
我々はメタ分析を行い、XAIが分類タスクにおける人間のパフォーマンスにどのように影響するかを探索する。
この結果から,XAIによる意思決定支援によるタスクパフォーマンスの向上が示唆された。
この分析によると、研究のバイアスリスクはAIにおける説明の影響を和らげる一方、説明のタイプは無視できる役割だけを担っている。
論文 参考訳(メタデータ) (2025-03-22T10:38:43Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Advancing Interactive Explainable AI via Belief Change Theory [5.842480645870251]
この種の形式化は、対話的な説明を開発するためのフレームワークと方法論を提供する、と我々は主張する。
まず,人間と機械の間で共有される説明情報を表現するために,論理に基づく新しい形式を定義した。
次に、対話型XAIの現実シナリオについて検討し、新しい知識と既存の知識の優先順位が異なり、フォーマリズムがインスタンス化される可能性がある。
論文 参考訳(メタデータ) (2024-08-13T13:11:56Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - The role of causality in explainable artificial intelligence [1.049712834719005]
因果性(Causality)とeXplainable Artificial Intelligence(XAI)は、コンピュータ科学の別分野として開発された。
文献を調査し,どの程度因果関係とXAIが絡み合っているかを理解する。
論文 参考訳(メタデータ) (2023-09-18T16:05:07Z) - Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study [0.0]
本研究は、新型コロナウイルスのユースケースを用いて、実装に依存しないXAI説明型の認知負荷、タスクパフォーマンス、タスク時間を測定する。
これらの説明型は, エンドユーザの認知負荷, タスクパフォーマンス, タスク時間に強く影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:52:09Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Explanatory Pluralism in Explainable AI [0.0]
私は、説明のタイプとそれに対応するXAIメソッドの分類をグラフ化します。
AIモデルの内部メカニズムを公開しようとすると、診断説明を生成する。
モデルを安定に一般化したい場合、期待-説明を生成する。
最後に、モデルの使用を正当化したい場合、ロール・エクスラレーションを生成します。
論文 参考訳(メタデータ) (2021-06-26T09:02:06Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。