論文の概要: Local Explanations via Necessity and Sufficiency: Unifying Theory and
Practice
- arxiv url: http://arxiv.org/abs/2103.14651v1
- Date: Sat, 27 Mar 2021 01:58:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 15:05:41.368678
- Title: Local Explanations via Necessity and Sufficiency: Unifying Theory and
Practice
- Title(参考訳): 必要と十分による地域説明:理論と実践の統一
- Authors: David Watson, Limor Gultchin, Ankur Taly, Luciano Floridi
- Abstract要約: 必要と十分さは、すべての成功した説明の構成要素です。
しかし、これらの概念は概念的には未発達であり、説明可能な人工知能には一貫性がない。
xaiにおける必要性と十分性の中心的な役割を確立し、1つの形式的枠組みで一見異質なメソッドを統一する。
- 参考スコア(独自算出の注目度): 3.8902657229395907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Necessity and sufficiency are the building blocks of all successful
explanations. Yet despite their importance, these notions have been
conceptually underdeveloped and inconsistently applied in explainable
artificial intelligence (XAI), a fast-growing research area that is so far
lacking in firm theoretical foundations. Building on work in logic,
probability, and causality, we establish the central role of necessity and
sufficiency in XAI, unifying seemingly disparate methods in a single formal
framework. We provide a sound and complete algorithm for computing explanatory
factors with respect to a given context, and demonstrate its flexibility and
competitive performance against state of the art alternatives on various tasks.
- Abstract(参考訳): 必要と十分性は、すべての成功した説明の構成要素である。
しかし、その重要性にもかかわらず、これらの概念は概念的に過小評価され、説明可能な人工知能(XAI)に不整合的に適用されてきた。
論理学、確率論、因果論を基礎として、xaiにおける必要性と十分性の中心的役割を確立し、1つの形式的枠組みで一見異質な手法を統一する。
与えられた文脈に関して説明的因子を計算するための健全で完全なアルゴリズムを提供し、様々なタスクにおける芸術的代替品の状態に対してその柔軟性と競争力を示す。
関連論文リスト
- Advancing Interactive Explainable AI via Belief Change Theory [5.842480645870251]
この種の形式化は、対話的な説明を開発するためのフレームワークと方法論を提供する、と我々は主張する。
まず,人間と機械の間で共有される説明情報を表現するために,論理に基づく新しい形式を定義した。
次に、対話型XAIの現実シナリオについて検討し、新しい知識と既存の知識の優先順位が異なり、フォーマリズムがインスタンス化される可能性がある。
論文 参考訳(メタデータ) (2024-08-13T13:11:56Z) - RATT: A Thought Structure for Coherent and Correct LLM Reasoning [23.28162642780579]
本稿では,思考過程の各段階における論理的健全性と事実的正当性の両方を考慮した新しい思考構造であるRetrieval Augmented Thought Tree(RATT)を紹介する。
様々な種類のタスクに関する実験では、RATT構造が既存の手法を事実的正当性と論理的整合性で著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2024-06-04T20:02:52Z) - What Does Evaluation of Explainable Artificial Intelligence Actually Tell Us? A Case for Compositional and Contextual Validation of XAI Building Blocks [16.795332276080888]
本稿では,説明可能な人工知能システムのためのきめ細かい検証フレームワークを提案する。
技術的ビルディングブロック,ユーザによる説明的成果物,ソーシャルコミュニケーションプロトコルといった,モジュール構造の本質を認識します。
論文 参考訳(メタデータ) (2024-03-19T13:45:34Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - A Principled Framework for Knowledge-enhanced Large Language Model [58.1536118111993]
大規模言語モデル(LLM)は汎用性があるが、深い信頼性のある推論を必要とするタスクに悩まされることが多い。
本稿では、知識を効果的に固定し、閉ループ推論プロセスを用いるLLMを作成するための厳密な設計のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-18T18:10:02Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Categorical Foundations of Explainable AI: A Unifying Theory [8.637435154170916]
本稿では、カテゴリー理論の十分に資金提供された形式主義を用いて、鍵となるXAI概念とプロセスの数学的に厳密な定義を初めて提示する。
i)既存の学習スキームとアーキテクチャをモデル化し、(ii)正式に「説明」という用語を定義し、(iii)XAIの理論的基盤を確立し、(iv)メソッドの説明の一般的に見落とされた側面を分析する。
論文 参考訳(メタデータ) (2023-04-27T11:10:16Z) - Measuring algorithmic interpretability: A human-learning-based framework
and the corresponding cognitive complexity score [4.707290877865484]
信頼の構築、公正性の確保、説明責任の追跡には、アルゴリズムによる解釈可能性が必要である。
アルゴリズムの解釈可能性に関する公式な測定方法はない。
我々は,プログラム言語理論と認知的負荷理論に基づいて,アルゴリズムの解釈可能性を測定するためのフレームワークを開発する。
論文 参考訳(メタデータ) (2022-05-20T14:31:06Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。