論文の概要: Scientific Explanation and Natural Language: A Unified
Epistemological-Linguistic Perspective for Explainable AI
- arxiv url: http://arxiv.org/abs/2205.01809v2
- Date: Thu, 5 May 2022 05:37:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 11:45:26.219178
- Title: Scientific Explanation and Natural Language: A Unified
Epistemological-Linguistic Perspective for Explainable AI
- Title(参考訳): 科学的説明と自然言語: 説明可能なAIのための統一認識言語学的視点
- Authors: Marco Valentino, Andr\'e Freitas
- Abstract要約: 本稿では,理論と実践のギャップを科学的説明の概念に埋めることを目的として,科学的領域に焦点を当てた。
定量的および定性的手法の混合により、本研究では以下の主要な結論を導出することができる。
- 参考スコア(独自算出の注目度): 2.7920304852537536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fundamental research goal for Explainable AI (XAI) is to build models that
are capable of reasoning through the generation of natural language
explanations. However, the methodologies to design and evaluate
explanation-based inference models are still poorly informed by theoretical
accounts on the nature of explanation. As an attempt to provide an
epistemologically grounded characterisation for XAI, this paper focuses on the
scientific domain, aiming to bridge the gap between theory and practice on the
notion of a scientific explanation. Specifically, the paper combines a detailed
survey of the modern accounts of scientific explanation in Philosophy of
Science with a systematic analysis of corpora of natural language explanations,
clarifying the nature and function of explanatory arguments from both a
top-down (categorical) and a bottom-up (corpus-based) perspective. Through a
mixture of quantitative and qualitative methodologies, the presented study
allows deriving the following main conclusions: (1) Explanations cannot be
entirely characterised in terms of inductive or deductive arguments as their
main function is to perform unification; (2) An explanation must cite causes
and mechanisms that are responsible for the occurrence of the event to be
explained; (3) While natural language explanations possess an intrinsic
causal-mechanistic nature, they are not limited to causes and mechanisms, also
accounting for pragmatic elements such as definitions, properties and taxonomic
relations; (4) Patterns of unification naturally emerge in corpora of
explanations even if not intentionally modelled; (5) Unification is realised
through a process of abstraction, whose function is to provide the inference
substrate for subsuming the event to be explained under recurring patterns and
high-level regularities.
- Abstract(参考訳): 説明可能なAI(XAI)の基本的な研究目標は、自然言語の説明の生成を通じて推論可能なモデルを構築することである。
しかしながら、説明に基づく推論モデルの設計と評価の方法論は、説明の性質に関する理論的な説明によってはまだ不十分である。
本稿では,xaiの認識論的基盤化の試みとして,科学的領域に着目し,理論と実践のギャップを科学的な説明の概念に橋渡しすることを目的とした。
具体的には、科学哲学における科学的説明の現代的説明と自然言語説明のコーパスの体系的分析を組み合わせ、トップダウン(カテゴリー)とボトムアップ(コーパスベース)の両方の観点から説明論の性質と機能を明らかにする。
Through a mixture of quantitative and qualitative methodologies, the presented study allows deriving the following main conclusions: (1) Explanations cannot be entirely characterised in terms of inductive or deductive arguments as their main function is to perform unification; (2) An explanation must cite causes and mechanisms that are responsible for the occurrence of the event to be explained; (3) While natural language explanations possess an intrinsic causal-mechanistic nature, they are not limited to causes and mechanisms, also accounting for pragmatic elements such as definitions, properties and taxonomic relations; (4) Patterns of unification naturally emerge in corpora of explanations even if not intentionally modelled; (5) Unification is realised through a process of abstraction, whose function is to provide the inference substrate for subsuming the event to be explained under recurring patterns and high-level regularities.
関連論文リスト
- Causal Abstraction in Model Interpretability: A Compact Survey [5.963324728136442]
因果的抽象化は、モデル行動の基礎となる因果的メカニズムを理解し説明するための原則化されたアプローチを提供する。
本研究は, 因果的抽象の領域を掘り下げ, その理論的基礎, 実践的応用, モデル解釈可能性の分野への含意について考察する。
論文 参考訳(メタデータ) (2024-10-26T12:24:28Z) - Reasoning with Natural Language Explanations [15.281385727331473]
説明は人間の合理性の根幹をなす特徴であり、学習と一般化を支えている。
自然言語推論(NLI)の研究は、学習や推論において説明が果たす役割を再考し始めている。
論文 参考訳(メタデータ) (2024-10-05T13:15:24Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Semantics, Ontology and Explanation [0.0]
本稿では, オントロジアンパックと哲学・科学における他の形態の説明との関係について論じる。
また,人工知能分野におけるオントロジアンパックと他の形態の説明との関係についても論じる。
論文 参考訳(メタデータ) (2023-04-21T16:54:34Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Thinking About Causation: A Causal Language with Epistemic Operators [58.720142291102135]
我々はエージェントの状態を表すことで因果モデルの概念を拡張した。
対象言語の側面には、知識を表現する演算子や、新しい情報を観察する行為が追加されます。
我々は、論理の健全かつ完全な公理化を提供し、このフレームワークと因果的チーム意味論との関係について論じる。
論文 参考訳(メタデータ) (2020-10-30T12:16:45Z) - Abduction and Argumentation for Explainable Machine Learning: A Position
Survey [2.28438857884398]
本稿では, 推論の2つの原則形式として, 帰納法と論証法を提案する。
機械学習の中で彼らが果たせる基本的な役割を具体化します。
論文 参考訳(メタデータ) (2020-10-24T13:23:44Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。