論文の概要: On the Eve of True Explainability for OWL Ontologies: Description Logic
Proofs with Evee and Evonne (Extended Version)
- arxiv url: http://arxiv.org/abs/2206.07711v1
- Date: Wed, 15 Jun 2022 17:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 15:48:52.437899
- Title: On the Eve of True Explainability for OWL Ontologies: Description Logic
Proofs with Evee and Evonne (Extended Version)
- Title(参考訳): OWLオントロジーの真説明可能性について:EveeとEvonneによる論理証明の記述(拡張版)
- Authors: Christian Alrabbaa, Stefan Borgwardt, Tom Friese, Patrick Koopmann,
Juli\'an M\'endez and Alexej Popovi\v{c}
- Abstract要約: 本稿では、ALCHまで記述ロジックの証明を計算するためのJavaライブラリであるEVEE-LIBSと、Prot'eにそれらの証明を表示するためのProt'eプラグインのコレクションであるEVEE-PROTEGEを紹介する。
また、計算された証明を表示・操作するための、より高度なスタンドアロンアプリケーションであるEVONNEの最新バージョンを垣間見ることができる。
- 参考スコア(独自算出の注目度): 13.799233438409
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When working with description logic ontologies, understanding entailments
derived by a description logic reasoner is not always straightforward. So far,
the standard ontology editor Prot\'eg\'e offers two services to help:
(black-box) justifications for OWL 2 DL ontologies, and (glass-box) proofs for
lightweight OWL EL ontologies, where the latter exploits the proof facilities
of reasoner ELK. Since justifications are often insufficient in explaining
inferences, there is thus only little tool support for explaining inferences in
more expressive DLs. In this paper, we introduce EVEE-LIBS, a Java library for
computing proofs for DLs up to ALCH, and EVEE-PROTEGE, a collection of
Prot\'eg\'e plugins for displaying those proofs in Prot\'eg\'e. We also give a
short glimpse of the latest version of EVONNE, a more advanced standalone
application for displaying and interacting with proofs computed with EVEE-LIBS.
- Abstract(参考訳): 記述論理オントロジーを扱う場合、記述論理推論子によって導かれる意味を理解することは必ずしも簡単ではない。
標準オントロジーエディタであるProt\'eg\'eは、OWL 2 DLオントロジーの(ブラックボックス)正当化と、軽量OWL ELオントロジーの(グラスボックス)証明の2つのサービスを提供している。
正当化はしばしば推論を説明するのに不十分であるため、より表現力のあるdlで推論を説明するためのツールサポートは少ない。
本稿では,ALCHまでDLの証明を計算するためのJavaライブラリであるEVEE-LIBSと,Prot\'eg\'eプラグインのコレクションであるEVEE-PROTEGEを紹介する。
また、EVEE-LIBSで計算された証明を表示・操作するための、より高度なスタンドアロンアプリケーションであるEVONNEの最新バージョンについても簡単に紹介する。
関連論文リスト
- Evaluating Evidence Attribution in Generated Fact Checking Explanations [48.776087871960584]
生成した説明文の属性品質を評価するために,新しい評価プロトコル,引用マスキングとリカバリを導入する。
実験により、最高の性能を持つLSMは、不正確な属性を持つ説明を生成することが明らかとなった。
より良い説明を生み出すには人為的な証拠が不可欠である。
論文 参考訳(メタデータ) (2024-06-18T14:13:13Z) - LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Towards LLM-guided Causal Explainability for Black-box Text Classifiers [16.36602400590088]
我々は,近年の大規模言語モデルにおける命令追従とテキスト理解機能を活用して,因果的説明可能性を高めることを目指している。
提案する3ステップパイプラインは,既製のLCMを用いて,入力テキスト中の潜時的・未観測な特徴を識別する。
我々は,複数のNLPテキスト分類データセットを用いたパイプライン実験を行い,興味深い,有望な結果を示した。
論文 参考訳(メタデータ) (2023-09-23T11:22:28Z) - Why Not? Explaining Missing Entailments with Evee (Technical Report) [8.268443804509719]
Prot'eg'eプラグインである$rm Escriptsize VEE$の新バージョンについて説明する。
論文 参考訳(メタデータ) (2023-08-14T17:30:03Z) - Extending Logic Explained Networks to Text Classification [5.289706151390118]
我々はLENpを提案し、入力語を摂動することで局所的な説明を改善し、テキスト分類でそれをテストする。
その結果, (i) LENp は LIME よりも感度, 忠実度, (ii) 論理的説明は LIME の機能評価よりも有用で, ユーザフレンドリであることがわかった。
論文 参考訳(メタデータ) (2022-11-04T16:12:03Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - FOLIO: Natural Language Reasoning with First-Order Logic [147.50480350846726]
我々は、自然言語(NL)における推論のための人間注釈付き、論理的に複雑で多様なデータセットであるFOLIOを提示する。
FOLIOは1,430の例(一意の結論)で構成され、それぞれが487の前提のうちの1つと組み合わせて、それぞれの結論の妥当性を導出的に推論する。
NL推論とNL-FOL変換の両方において、複数の最先端言語モデルをベンチマークする。
論文 参考訳(メタデータ) (2022-09-02T06:50:11Z) - Evonne: Interactive Proof Visualization for Description Logics (System
Description) -- Extended Version [35.068973868297114]
記述論理(DL)に関する説明は、大きなオントロジーの維持に重要な支援を提供する。
本稿では,記述論理の証明を探索するインタラクティブな機能であるEvonneについて述べる。
論文 参考訳(メタデータ) (2022-05-19T14:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。