論文の概要: Why Not? Explaining Missing Entailments with $\rm E{\scriptsize VEE}$
(Technical Report)
- arxiv url: http://arxiv.org/abs/2308.07294v1
- Date: Mon, 14 Aug 2023 17:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 12:05:58.838009
- Title: Why Not? Explaining Missing Entailments with $\rm E{\scriptsize VEE}$
(Technical Report)
- Title(参考訳): なぜだ?
$\rm e{\scriptsize vee}$による補足の欠如を説明する(技術報告)
- Authors: Christian Alrabbaa, Stefan Borgwardt, Tom Friese, Patrick Koopmann,
Mikhail Kotlov
- Abstract要約: Prot'eg'eプラグインである$rm Escriptsize VEE$の新バージョンについて説明する。
- 参考スコア(独自算出の注目度): 8.268443804509719
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding logical entailments derived by a description logic reasoner is
not always straight-forward for ontology users. For this reason, various
methods for explaining entailments using justifications and proofs have been
developed and implemented as plug-ins for the ontology editor Prot\'eg\'e.
However, when the user expects a missing consequence to hold, it is equally
important to explain why it does not follow from the ontology. In this paper,
we describe a new version of $\rm E{\scriptsize VEE}$, a Prot\'eg\'e plugin
that now also provides explanations for missing consequences, via existing and
new techniques based on abduction and counterexamples.
- Abstract(参考訳): 記述論理推論器が引き起こす論理的含意を理解することは、オントロジー利用者にとって必ずしもまっすぐではない。
このため, オントロジーエディタProt\'eg\'eのプラグインとして, 正当性や証明を用いた細部説明法が開発され, 実装されている。
しかし、ユーザが欠落結果が保持されることを期待する場合、なぜそれがオントロジーから従わないのかを説明するのも同様に重要である。
本稿では,<sup>e</sup> プラグインである $\rm E{\scriptsize VEE}$ の新バージョンについて述べる。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Zero-Shot Classification by Logical Reasoning on Natural Language
Explanations [56.42922904777717]
我々はCLOREフレームワークを提案する(説明の論理的推論による分類)。
CLOREは、説明を論理構造にパースし、入力のthess構造に沿って明示的に理由付け、分類スコアを生成する。
また、我々のフレームワークは視覚的モダリティのゼロショット分類にまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-11-07T01:05:11Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - On Interactive Explanations as Non-Monotonic Reasoning [10.616061367794385]
我々は、説明を推論の対象となる対象として扱う。
本稿では,ユーザとシステム間の対話シナリオの形式モデルを提案する。
このことは、1)特異性関係のような説明の不整合を解決し、2)非単調な推論文学からの性質を考察し、それらの望ましくないことを議論することを可能にする。
論文 参考訳(メタデータ) (2022-07-30T22:08:35Z) - On the Eve of True Explainability for OWL Ontologies: Description Logic
Proofs with Evee and Evonne (Extended Version) [13.799233438409]
本稿では、ALCHまで記述ロジックの証明を計算するためのJavaライブラリであるEVEE-LIBSと、Prot'eにそれらの証明を表示するためのProt'eプラグインのコレクションであるEVEE-PROTEGEを紹介する。
また、計算された証明を表示・操作するための、より高度なスタンドアロンアプリケーションであるEVONNEの最新バージョンを垣間見ることができる。
論文 参考訳(メタデータ) (2022-06-15T17:59:46Z) - Evonne: Interactive Proof Visualization for Description Logics (System
Description) -- Extended Version [35.068973868297114]
記述論理(DL)に関する説明は、大きなオントロジーの維持に重要な支援を提供する。
本稿では,記述論理の証明を探索するインタラクティブな機能であるEvonneについて述べる。
論文 参考訳(メタデータ) (2022-05-19T14:24:40Z) - Semantic Reasoning from Model-Agnostic Explanations [0.0]
本稿では、任意のインスタンスレベルの説明者が生成した説明に適用可能なReEx(Reasoning with Explanations)を提案する。
意味的説明の形で背景知識を使用することで、ReExは少なくとも一般化のような方法で一般化する。
本稿では,9つの生物学的データセット上でのReExの性能について紹介し,よりコンパクトで意味論的説明が得られ,汎用的なマッピングよりも有益であることを示す。
論文 参考訳(メタデータ) (2021-06-29T14:03:47Z) - On Relating 'Why?' and 'Why Not?' Explanations [28.87208020322193]
機械学習(ML)モデルの説明は、しばしば「なぜ」に対処する。
質問だ
最近の研究は「なぜそうでないのか」という説明を調査している。
質問だ
本稿では,「なぜ」の厳密な関係を確立する。
と「なぜないのですか?
説明だ
論文 参考訳(メタデータ) (2020-12-21T01:07:13Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。