論文の概要: On Interactive Explanations as Non-Monotonic Reasoning
- arxiv url: http://arxiv.org/abs/2208.00316v1
- Date: Sat, 30 Jul 2022 22:08:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:34:24.412969
- Title: On Interactive Explanations as Non-Monotonic Reasoning
- Title(参考訳): 非単調推論としての対話的説明について
- Authors: Guilherme Paulino-Passos and Francesca Toni
- Abstract要約: 我々は、説明を推論の対象となる対象として扱う。
本稿では,ユーザとシステム間の対話シナリオの形式モデルを提案する。
このことは、1)特異性関係のような説明の不整合を解決し、2)非単調な推論文学からの性質を考察し、それらの望ましくないことを議論することを可能にする。
- 参考スコア(独自算出の注目度): 10.616061367794385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work shows issues of consistency with explanations, with methods
generating local explanations that seem reasonable instance-wise, but that are
inconsistent across instances. This suggests not only that instance-wise
explanations can be unreliable, but mainly that, when interacting with a system
via multiple inputs, a user may actually lose confidence in the system. To
better analyse this issue, in this work we treat explanations as objects that
can be subject to reasoning and present a formal model of the interactive
scenario between user and system, via sequences of inputs, outputs, and
explanations. We argue that explanations can be thought of as committing to
some model behaviour (even if only prima facie), suggesting a form of
entailment, which, we argue, should be thought of as non-monotonic. This
allows: 1) to solve some considered inconsistencies in explanation, such as via
a specificity relation; 2) to consider properties from the non-monotonic
reasoning literature and discuss their desirability, gaining more insight on
the interactive explanation scenario.
- Abstract(参考訳): 最近の研究は、合理的なインスタンスワイドに思える局所的な説明を生成するメソッドを含む、説明との一貫性の問題を示している。
これは、インスタンス毎の説明が信頼できないだけでなく、複数の入力を介してシステムと対話する場合、ユーザが実際にシステムに対する信頼を失う可能性があることを示唆する。
この問題をよりよく分析するために、本研究では、入力、出力、説明のシーケンスを通して、ユーザとシステム間の対話的なシナリオの形式モデルを提示し、推論の対象となるオブジェクトとして説明を扱う。
我々は、説明はある種のモデル行動にコミットする(たとえプリマ・ファシエだけであっても)と考えることができると論じ、エンテーメントの一形態を示唆し、それは非モノトニックと考えるべきであると論じる。
これが許される。
1) 特定性関係などによる説明の不一致を解消する。
2)非単調な推論文献から特性を考察し,その要求性について考察し,対話的な説明シナリオについてより深い知見を得た。
関連論文リスト
- Explaining Explanations in Probabilistic Logic Programming [0.0]
ほとんどのアプローチでは、システムはブラックボックスと見なされており、適切な説明を生成することは困難である。
確率論的論理プログラミング(PLP)は、知識表現のための論理プログラミングと不確実性をモデル化する確率を組み合わせたパラダイムである。
本稿では,証明に「選択表現」をラベル付けした PLP の新しいクエリ駆動推論機構の定義に基づく説明法を提案する。
論文 参考訳(メタデータ) (2024-01-30T14:27:37Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Semantics and explanation: why counterfactual explanations produce
adversarial examples in deep neural networks [15.102346715690759]
説明可能なAIに関する最近の論文は、対実的な説明のモードを説得力あるものにしている。
反事実的説明はいくつかのケースでは極めて効果的であるように見えるが、正式には敵の例と等価である。
この2つの手順が公式に同値であるならば、反事実的な説明と敵対的な例の間に明らかな説明分割にはどのような意味があるのでしょうか?
このパラドックスは、反事実表現の意味論に重きを置くことで解決する。
論文 参考訳(メタデータ) (2020-12-18T07:04:04Z) - LIMEtree: Interactively Customisable Explanations Based on Local
Surrogate Multi-output Regression Trees [21.58324172085553]
LIMEtree と呼ばれるブラックボックス予測のためのモデル非依存的かつポストホックな局所的説明可能性手法を提案する。
画像中の物体検出を訓練したディープニューラルネットワーク上でアルゴリズムを検証し,LIME(Local Interpretable Model-Agnostic Explanations)と比較する。
本手法は局所的忠実度保証を伴い,多種多様な説明型を生成する。
論文 参考訳(メタデータ) (2020-05-04T12:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。