論文の概要: Explaining AI as an Exploratory Process: The Peircean Abduction Model
- arxiv url: http://arxiv.org/abs/2009.14795v2
- Date: Thu, 1 Oct 2020 16:43:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 23:45:07.799520
- Title: Explaining AI as an Exploratory Process: The Peircean Abduction Model
- Title(参考訳): AIを探索的プロセスとして説明する - ペルセアンアブダクションモデル
- Authors: Robert R. Hoffman, William J. Clancey, and Shane T. Mueller
- Abstract要約: 帰納的推論は様々な方法で定義されてきた。
帰納的推論の実装の課題と説明プロセスの自動化の課題は密接に関連している。
この分析は、XAI研究者がすでに行っていることを理解するための理論的枠組みを提供する。
- 参考スコア(独自算出の注目度): 0.2676349883103404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current discussions of "Explainable AI" (XAI) do not much consider the role
of abduction in explanatory reasoning (see Mueller, et al., 2018). It might be
worthwhile to pursue this, to develop intelligent systems that allow for the
observation and analysis of abductive reasoning and the assessment of abductive
reasoning as a learnable skill. Abductive inference has been defined in many
ways. For example, it has been defined as the achievement of insight. Most
often abduction is taken as a single, punctuated act of syllogistic reasoning,
like making a deductive or inductive inference from given premises. In
contrast, the originator of the concept of abduction---the American
scientist/philosopher Charles Sanders Peirce---regarded abduction as an
exploratory activity. In this regard, Peirce's insights about reasoning align
with conclusions from modern psychological research. Since abduction is often
defined as "inferring the best explanation," the challenge of implementing
abductive reasoning and the challenge of automating the explanation process are
closely linked. We explore these linkages in this report. This analysis
provides a theoretical framework for understanding what the XAI researchers are
already doing, it explains why some XAI projects are succeeding (or might
succeed), and it leads to design advice.
- Abstract(参考訳): 説明可能なAI(XAI)に関する現在の議論は、説明的推論における誘拐の役割をあまり考慮していない(Mueller, et al., 2018)。
これを追求し、帰納的推論の観察と分析と、学習可能なスキルとしての帰納的推論の評価を可能にするインテリジェントなシステムを開発することは価値があるかもしれない。
帰納的推論は様々な方法で定義されている。
例えば、それは洞察の達成として定義されている。
たいていの誘拐は、ある前提から誘惑的または帰納的推論をするなど、単一の、句読的推論の行為として扱われる。
対照的に、アメリカの科学者で哲学者のチャールズ・サンダース・パース(charles sanders peirce)は、アブダクションを探索的な活動として考えていた。
この観点から、パースの推論に関する洞察は、現代の心理学研究の結論と一致している。
誘拐はしばしば「最良の説明の推論」と定義されるため、帰納的推論の実装の課題と説明プロセスの自動化の課題は密接に関連している。
本報告ではこれらの関連について検討する。
この分析は、XAI研究者がすでに行っていることを理解するための理論的フレームワークを提供し、XAIプロジェクトが成功した(あるいは成功した)理由を説明し、設計アドバイスにつながる。
関連論文リスト
- Understanding XAI Through the Philosopher's Lens: A Historical Perspective [5.839350214184222]
論理的帰納的モデルから統計的説明モデルまで,両領域で段階的に進行したことを示す。
同様の概念は、例えば、説明と理解の関係と実用的要因の重要性の両方に独立して現れている。
論文 参考訳(メタデータ) (2024-07-26T14:44:49Z) - Axe the X in XAI: A Plea for Understandable AI [0.0]
私は、XAI文献で現在使われている説明可能性の概念は、従来の科学的説明の概念とほとんど類似していないと論じる。
XAIの目標と目的を取り巻く混乱を避けるために、"理解可能なAI"というラベルを使用することは、より実りあることでしょう。
論文 参考訳(メタデータ) (2024-03-01T06:28:53Z) - Implicit Chain of Thought Reasoning via Knowledge Distillation [58.80851216530288]
思考推論ステップの連鎖を明示的に生成する代わりに、言語モデルの内部の隠れ状態を使用して暗黙の推論を行います。
このアプローチにより、明示的にチェーン・オブ・シントなしでは解決不可能なタスクを、非チェーン・オブ・シントに匹敵する速度で解決できることが分かりました。
論文 参考訳(メタデータ) (2023-11-02T17:59:49Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Towards Relatable Explainable AI with the Perceptual Process [5.581885362337179]
我々は、説明は、他の概念、仮説、および関連性により関連していなければならないと論じる。
認知心理学に触発されて、相対論的説明可能なAIのためのXAI知覚処理フレームワークとRexNetモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T05:48:53Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Some Critical and Ethical Perspectives on the Empirical Turn of AI
Interpretability [0.0]
我々は、現在人工知能開発で直面している2つの問題、すなわち、倫理の欠如とAI決定の解釈可能性の欠如について考察する。
実験により,説明書作成の実証的かつリベラルな転換は,否定力の低いAI説明を選択する傾向にあることを示した。
我々は、倫理的AIの今後の発展のためのシナリオとして、より外部規制やAI説明の自由化の2つを提案する。
論文 参考訳(メタデータ) (2021-09-20T14:41:50Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Explainable AI without Interpretable Model [0.0]
AIシステムが、結果の背後にある理由をエンドユーザに説明できることは、これまで以上に重要になっています。
ほとんどの説明可能なAI(XAI)メソッドは、説明を作成するのに使用できる解釈可能なモデルを抽出することに基づいている。
本論文では,文脈的重要性と実用性(CIU)の概念により,ブラックボックスの結果の人間的な説明を直接生成することが可能となる。
論文 参考訳(メタデータ) (2020-09-29T13:29:44Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。