論文の概要: Local Explanations via Necessity and Sufficiency: Unifying Theory and
Practice
- arxiv url: http://arxiv.org/abs/2103.14651v1
- Date: Sat, 27 Mar 2021 01:58:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 15:05:41.368678
- Title: Local Explanations via Necessity and Sufficiency: Unifying Theory and
Practice
- Title(参考訳): 必要と十分による地域説明:理論と実践の統一
- Authors: David Watson, Limor Gultchin, Ankur Taly, Luciano Floridi
- Abstract要約: 必要と十分さは、すべての成功した説明の構成要素です。
しかし、これらの概念は概念的には未発達であり、説明可能な人工知能には一貫性がない。
xaiにおける必要性と十分性の中心的な役割を確立し、1つの形式的枠組みで一見異質なメソッドを統一する。
- 参考スコア(独自算出の注目度): 3.8902657229395907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Necessity and sufficiency are the building blocks of all successful
explanations. Yet despite their importance, these notions have been
conceptually underdeveloped and inconsistently applied in explainable
artificial intelligence (XAI), a fast-growing research area that is so far
lacking in firm theoretical foundations. Building on work in logic,
probability, and causality, we establish the central role of necessity and
sufficiency in XAI, unifying seemingly disparate methods in a single formal
framework. We provide a sound and complete algorithm for computing explanatory
factors with respect to a given context, and demonstrate its flexibility and
competitive performance against state of the art alternatives on various tasks.
- Abstract(参考訳): 必要と十分性は、すべての成功した説明の構成要素である。
しかし、その重要性にもかかわらず、これらの概念は概念的に過小評価され、説明可能な人工知能(XAI)に不整合的に適用されてきた。
論理学、確率論、因果論を基礎として、xaiにおける必要性と十分性の中心的役割を確立し、1つの形式的枠組みで一見異質な手法を統一する。
与えられた文脈に関して説明的因子を計算するための健全で完全なアルゴリズムを提供し、様々なタスクにおける芸術的代替品の状態に対してその柔軟性と競争力を示す。
関連論文リスト
- Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical
Reasoning Capabilities of Language Models [58.76688462256284]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
一つのタスクトレーニング,複数タスクトレーニング,および思考知識の蒸留微調整手法の連鎖について検討し,異なる論理的推論カテゴリにおけるモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Categorical Foundations of Explainable AI: A Unifying Theory [8.637435154170916]
本稿では、カテゴリー理論の十分に資金提供された形式主義を用いて、鍵となるXAI概念とプロセスの数学的に厳密な定義を初めて提示する。
i)既存の学習スキームとアーキテクチャをモデル化し、(ii)正式に「説明」という用語を定義し、(iii)XAIの理論的基盤を確立し、(iv)メソッドの説明の一般的に見落とされた側面を分析する。
論文 参考訳(メタデータ) (2023-04-27T11:10:16Z) - Non-Axiomatic Term Logic: A Computational Theory of Cognitive Symbolic
Reasoning [3.344997561878685]
非軸性項論理(非軸性項論理、Non-Axiomatic Term Logic、NATL)は、人工知能における人間のような記号的推論の理論的計算フレームワークである。
NATLは、アリストテレスの項論理から着想を得た離散構文体系と、分散表現の現代的な考え方に基づく連続意味体系を結合する。
論文 参考訳(メタデータ) (2022-10-12T15:31:35Z) - Measuring algorithmic interpretability: A human-learning-based framework
and the corresponding cognitive complexity score [4.707290877865484]
信頼の構築、公正性の確保、説明責任の追跡には、アルゴリズムによる解釈可能性が必要である。
アルゴリズムの解釈可能性に関する公式な測定方法はない。
我々は,プログラム言語理論と認知的負荷理論に基づいて,アルゴリズムの解釈可能性を測定するためのフレームワークを開発する。
論文 参考訳(メタデータ) (2022-05-20T14:31:06Z) - Explainability Is in the Mind of the Beholder: Establishing the
Foundations of Explainable Artificial Intelligence [11.472707084860875]
我々は、背景知識に基づいて解釈された透明な洞察(ブラックボックス)に適用する(論理的)推論として説明可能性を定義する。
我々は、透明性と予測力のトレードオフを再考し、アンテホックやポストホックの解説者への影響について述べる。
我々は、人間中心の説明可能性からさまざまなアイデアに基づいて、解釈可能性を必要とするかもしれない機械学習ワークフローのコンポーネントについて論じる。
論文 参考訳(メタデータ) (2021-12-29T09:21:33Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。