論文の概要: On Expansion and Contraction of DL-Lite Knowledge Bases
- arxiv url: http://arxiv.org/abs/2001.09365v1
- Date: Sat, 25 Jan 2020 21:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 00:16:16.302990
- Title: On Expansion and Contraction of DL-Lite Knowledge Bases
- Title(参考訳): DL-Lite知識ベースの拡張と収縮について
- Authors: Dmitriy Zheleznyakov, Evgeny Kharlamov, Werner Nutt, Diego Calvanese
- Abstract要約: DL-Liteで表される知識ベースに対する知識拡張と収縮について検討する。
DL-Liteの拡張と収縮には,よく知られた公式ベースのアプローチが適さないことを示す。
本稿では,我々の原理と進化を尊重し,DL-Liteで表現可能な新しい公式ベースのアプローチを提案する。
- 参考スコア(独自算出の注目度): 9.168045898881292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge bases (KBs) are not static entities: new information constantly
appears and some of the previous knowledge becomes obsolete. In order to
reflect this evolution of knowledge, KBs should be expanded with the new
knowledge and contracted from the obsolete one. This problem is well-studied
for propositional but much less for first-order KBs. In this work we
investigate knowledge expansion and contraction for KBs expressed in DL-Lite, a
family of description logics (DLs) that underlie the tractable fragment OWL 2
QL of the Web Ontology Language OWL 2. We start with a novel knowledge
evolution framework and natural postulates that evolution should respect, and
compare our postulates to the well-established AGM postulates. We then review
well-known model and formula-based approaches for expansion and contraction for
propositional theories and show how they can be adapted to the case of DL-Lite.
In particular, we show intrinsic limitations of model-based approaches: besides
the fact that some of them do not respect the postulates we have established,
they ignore the structural properties of KBs. This leads to undesired
properties of evolution results: evolution of DL-Lite KBs cannot be captured in
DL-Lite. Moreover, we show that well-known formula-based approaches are also
not appropriate for DL-Lite expansion and contraction: they either have a high
complexity of computation, or they produce logical theories that cannot be
expressed in DL-Lite. Thus, we propose a novel formula-based approach that
respects our principles and for which evolution is expressible in DL-Lite. For
this approach we also propose
polynomial time deterministic algorithms to compute evolution of DL-Lite KBs
when evolution affects only factual data.
- Abstract(参考訳): 知識ベース(KB)は静的なエンティティではない。
この知識の進化を反映するために、KBは新たな知識で拡張され、古い知識から収縮されるべきである。
この問題は命題ではよく研究されているが、一階のkbsでははるかに少ない。
本研究では, Web Ontology Language OWL 2 QL の抽出可能なフラグメント OWL 2 QL の基盤となる記述論理群 (DL) であるDL-Lite で表される KB の知識拡張と収縮について検討する。
我々は、進化が尊重すべき新しい知識進化の枠組みと自然な仮定から始まり、我々の仮定を確立されたAGMの仮定と比較する。
次に,提案理論の展開と縮約に関する既知のモデルと公式に基づくアプローチを考察し,dl-lite の場合にどのように適用できるかを示す。
特に、モデルに基づくアプローチの本質的な制限を示す:それらのうちのいくつかは我々が確立した仮定を尊重していないという事実に加えて、KBの構造的性質を無視している。
DL-Lite KB の進化は DL-Lite では捉えられない。
さらに, DL-Liteの拡張と縮小には, 良く知られた公式ベースのアプローチが適していないことを示し, 計算の複雑さが高いか, DL-Liteでは表現できない論理理論を生成する。
そこで我々は,我々の原理を尊重し,進化をDL-Liteで表現できる新しい公式に基づくアプローチを提案する。
そこで本研究では,DL-Lite KB の進化が実データにのみ影響を及ぼす場合の多項式時間決定論的アルゴリズムを提案する。
関連論文リスト
- Large Language Models as Reliable Knowledge Bases? [60.25969380388974]
大きな言語モデル(LLM)は潜在的な知識ベース(KB)と見なすことができる。
本研究は、信頼性の高いLLM-as-KBが満たすべき基準を定義し、事実性と一貫性に焦点をあてる。
ICLや微調整のような戦略は、LLMをより良くKBにするには失敗している。
論文 参考訳(メタデータ) (2024-07-18T15:20:18Z) - Knowledge Verification to Nip Hallucination in the Bud [69.79051730580014]
本研究では、アライメントデータに存在する外部知識と基礎LPM内に埋め込まれた固有の知識との矛盾を検証し、最小化することにより、幻覚を緩和する可能性を示す。
本稿では,知識一貫性アライメント(KCA, Knowledge Consistent Alignment)と呼ばれる新しい手法を提案する。
6つのベンチマークで幻覚を減らし, バックボーンとスケールの異なる基礎的LCMを利用することで, KCAの優れた効果を実証した。
論文 参考訳(メタデータ) (2024-01-19T15:39:49Z) - Knowledge Prompting in Pre-trained Language Model for Natural Language
Understanding [24.315130086787374]
知識プロンプトに基づく PLM フレームワーク KP-PLM を提案する。
このフレームワークは、既存の主流PLMと柔軟に組み合わせることができる。
これらのプロンプトから事実知識を更に活用するために,我々は2つの新しい知識認識型自己監督タスクを提案する。
論文 参考訳(メタデータ) (2022-10-16T13:36:57Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - A Review on Language Models as Knowledge Bases [55.035030134703995]
近年,知識ベース (KB) としての事前訓練言語モデル (LM) の利用に対する,NLPコミュニティへの関心が高まっている。
論文 参考訳(メタデータ) (2022-04-12T18:35:23Z) - EvoLearner: Learning Description Logics with Evolutionary Algorithms [2.0096667731426976]
知識グラフにおけるノードの分類は重要なタスクであり、例えば、欠落したタイプのエンティティを予測したり、どの分子ががんの原因となるかを予測したり、どの薬物が有望な治療候補であるかを予測する。
EvoLearner - 肯定的および否定的な例から記述論理の概念を学習するための進化的アプローチを提案する。
論文 参考訳(メタデータ) (2021-11-08T23:47:39Z) - Language Models As or For Knowledge Bases [30.089955948497405]
我々は、事前学習言語モデル(LM)と明示的知識ベース(KB)の長所と短所を識別する。
我々は、潜在LMは明示的なKBの代用には適さないが、KBの増補とキュレーションにおいて重要な役割を担っていると論じる。
論文 参考訳(メタデータ) (2021-10-10T20:00:09Z) - Unsupervised Pre-training with Structured Knowledge for Improving
Natural Language Inference [22.648536283569747]
本研究では,事前学習モデルの異なるコンポーネントにおける構造化知識を活用するモデルを提案する。
以上の結果から,提案モデルは従来のBERTモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-08T21:28:12Z) - Reasoning Over Virtual Knowledge Bases With Open Predicate Relations [85.19305347984515]
Open Predicate Query Language (OPQL) を紹介します。
OPQLは、テキストから完全にトレーニングされた仮想知識ベース(VKB)を構築する方法である。
OPQLは2つの異なるKB推論タスクにおいて、以前のVKBメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-14T01:29:54Z) - BoxE: A Box Embedding Model for Knowledge Base Completion [53.57588201197374]
知識ベース補完(KBC)は、知識ベース(KB)に存在する情報を活用することにより、行方不明な事実を自動的に推測することを目的とする。
既存の埋め込みモデルは、以下の制限の少なくとも1つに該当する。
BoxEは、エンティティをポイントとして、関係をハイパー矩形(またはボックス)の集合として埋め込む
論文 参考訳(メタデータ) (2020-07-13T09:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。