論文の概要: Frontiers and Exact Learning of ELI Queries under DL-Lite Ontologies
- arxiv url: http://arxiv.org/abs/2204.14172v1
- Date: Fri, 29 Apr 2022 15:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 20:06:16.615377
- Title: Frontiers and Exact Learning of ELI Queries under DL-Lite Ontologies
- Title(参考訳): DL-Liteオントロジーに基づくELIクエリのフロンティアとエクササイズ学習
- Authors: Maurice Funk, Jean Christoph Jung and Carsten Lutz
- Abstract要約: 論理記述DL-Liteが存在する場合のELIクエリ(ELIQ)について検討する。
方言 DL-Lite に対して、ELIQ は、サイズが小さく、時間で計算できるフロンティア(少なくとも一般化の集合)を持つことを示す。
DL-LiteF の方言では、フロンティアは無限である。
- 参考スコア(独自算出の注目度): 21.18670404741191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study ELI queries (ELIQs) in the presence of ontologies formulated in the
description logic DL-Lite. For the dialect DL-LiteH, we show that ELIQs have a
frontier (set of least general generalizations) that is of polynomial size and
can be computed in polynomial time. In the dialect DL-LiteF, in contrast,
frontiers may be infinite. We identify a natural syntactic restriction that
enables the same positive results as for DL-LiteH. We use out results on
frontiers to show that ELIQs are learnable in polynomial time in the presence
of a DL-LiteH / restricted DL-LiteF ontology in Angluin's framework of exact
learning with only membership queries.
- Abstract(参考訳): 記述論理dl-liteで定式化されたオントロジーの存在下でeliクエリ(eliqs)について検討する。
方言 DL-LiteH に対して、ELIQ は多項式サイズで多項式時間で計算できるフロンティア(少なくとも一般化の集合)を持つことを示す。
DL-LiteF の方言では、フロンティアは無限である。
dl-litehと同じ正の結果が得られる自然構文制約を同定する。
我々は,アングリンの完全学習フレームワークにおけるdl-liteh/制限dl-litefオントロジーの存在下でeliqsが多項式時間で学習可能であることを示した。
関連論文リスト
- Self-Augmented In-Context Learning for Unsupervised Word Translation [81.6546357879259]
大規模言語モデル (LLMs) は、強力な単語翻訳やバイリンガル語彙誘導(BLI)機能を示す。
教師なしBLIのための自己拡張型インコンテキスト学習(SAIL)を提案する。
提案手法は,2つの確立したBLIベンチマーク上でのLDMのゼロショットプロンプトよりも大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-02-15T15:43:05Z) - Probing Structured Semantics Understanding and Generation of Language
Models via Question Answering [56.610044062739256]
本研究では,人間が構築した形式言語を用いて質問応答のタスクにおいて,大規模言語モデルが構造化意味論に対処する能力について検討する。
異なる大きさのモデルと異なる形式言語を用いた実験は、今日の最先端のLLMの論理形式に対する理解が全体的な人間レベルにアプローチできることを示している。
結果は、モデルが異なる形式言語にかなり敏感であることを示している。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - Enabling Large Language Models to Learn from Rules [99.16680531261987]
私たちは、人間がルールから学習することで、新しいタスクや知識を別の方法で学習できることにインスピレーションを受けています。
まず, LLMの強い文脈内能力を用いて, テキスト規則から知識を抽出する規則蒸留法を提案する。
実験の結果, LLMをルールから学習させることは, サンプルサイズと一般化能力の両方において, サンプルベース学習よりもはるかに効率的であることがわかった。
論文 参考訳(メタデータ) (2023-11-15T11:42:41Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - Do Large Language Models Know about Facts? [60.501902866946]
大規模言語モデル(LLM)は、最近、さまざまな自然言語処理タスクにおいて、大幅なパフォーマンス改善を推進している。
我々は,ベンチマークPinocchioを設計し,LLM内の事実知識の範囲と範囲を評価することを目的とする。
Pinocchioには、異なるソース、タイムライン、ドメイン、リージョン、言語にまたがる20万のさまざまな事実質問が含まれている。
論文 参考訳(メタデータ) (2023-10-08T14:26:55Z) - Querying Circumscribed Description Logic Knowledge Bases [9.526604375441073]
循環は非単調な記述論理を定義する主要なアプローチの1つである。
本研究は, (U)CQ 評価における DL KB の判定可能性を示す。
また、より単純な原子クエリ(AQ)についても研究する。
論文 参考訳(メタデータ) (2023-06-07T15:50:15Z) - Description Logics with Abstraction and Refinement [8.958066641323894]
本稿では,抽象レベルが一級市民である記述論理(DL)の拡張を提案する。
結果として生じるDLの系統の推論は決定可能であり、一見無害ないくつかのバリエーションは決定不可能であることが証明された。
論文 参考訳(メタデータ) (2023-06-06T14:27:03Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z) - Expressivity of Planning with Horn Description Logic Ontologies
(Technical Report) [12.448670165713652]
我々は、記述論理(DL)オントロジーを計画することで定式化されたオープンワールドな状態制約に対処する。
派生述語を用いた標準PDDLへの新しいコンパイル方式を提案する。
提案手法は,DLで計画する既存のベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T14:50:06Z) - Actively Learning Concepts and Conjunctive Queries under ELr-Ontologies [22.218000867486726]
EL概念はELIオントロジーの存在下では学習できないことを示す。
また,EL概念はELIオントロジーの存在下では学習できないことを示す。
論文 参考訳(メタデータ) (2021-05-18T07:45:37Z) - When is Ontology-Mediated Querying Efficient? [10.971122842236024]
関係データベース上でのオントロジーによるクエリの評価について検討する。
OMQ のクラスの特徴として,複雑な組み合わせによるトラクタブルなクラスを提供しています。
また、与えられた OMQ が有界木幅の OMQ に等しいかどうかを決定する複雑さについても検討する。
論文 参考訳(メタデータ) (2020-03-17T16:32:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。