論文の概要: Efficient OWL2QL Meta-reasoning Using ASP-based Hybrid Knowledge Bases
- arxiv url: http://arxiv.org/abs/2502.09206v1
- Date: Thu, 13 Feb 2025 11:46:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:44:20.762864
- Title: Efficient OWL2QL Meta-reasoning Using ASP-based Hybrid Knowledge Bases
- Title(参考訳): ASPベースのハイブリッド知識ベースを用いた効率的なOWL2QLメタ推論
- Authors: Haya Majid Qureshi, Wolfgang Faber,
- Abstract要約: データログクエリ応答に対するメタモデリングクエリ応答の削減に取り組んでいます。
目的は、必要なときにだけDatalog変換を使用することです。
予備的な研究は、アプローチが機能することを示したが、期待されたパフォーマンス改善はまだ観察されなかった。
- 参考スコア(独自算出の注目度): 2.831462251544684
- License:
- Abstract: Metamodeling refers to scenarios in ontologies in which classes and roles can be members of classes or occur in roles. This is a desirable modelling feature in several applications, but allowing it without restrictions is problematic for several reasons, mainly because it causes undecidability. Therefore, practical languages either forbid metamodeling explicitly or treat occurrences of classes as instances to be semantically different from other occurrences, thereby not allowing metamodeling semantically. Several extensions have been proposed to provide metamodeling to some extent. Building on earlier work that reduces metamodeling query answering to Datalog query answering, recently reductions to query answering over hybrid knowledge bases were proposed with the aim of using the Datalog transformation only where necessary. Preliminary work showed that the approach works, but the hoped-for performance improvements were not observed yet. In this work we expand on this body of work by improving the theoretical basis of the reductions and by using alternative tools that show competitive performance.
- Abstract(参考訳): メタモデリング(メタモデリング)とは、オントロジーにおいて、クラスとロールがクラスのメンバーまたはロールで発生するシナリオを指す。
これは、いくつかのアプリケーションで望ましいモデリング機能であるが、いくつかの理由により、主に決定不能を引き起こすため、制限なしでそれを許可することは問題となる。
したがって、実用的な言語は、明示的にメタモデリングを禁止するか、他の発生と意味的に異なるインスタンスとしてのクラスの発生を扱い、したがってメタモデリングを意味的に許可しない。
ある程度のメタモデリングを提供するために、いくつかの拡張が提案されている。
データログクエリ応答に対するメタモデリングクエリ応答を削減した初期の作業に基づいて、最近、必要な場合にのみデータログ変換を使用することを目的として、ハイブリッド知識ベース上でのクエリ応答に対するクエリ応答の削減が提案された。
予備的な研究は、アプローチが機能することを示したが、期待されたパフォーマンス改善はまだ観察されなかった。
本研究は,削減の理論的基礎を改良し,競争性能を示す代替ツールを使用することにより,この分野を拡大する。
関連論文リスト
- RARe: Retrieval Augmented Retrieval with In-Context Examples [40.963703726988946]
本稿では,検索者がコンテキスト内例を利用できるためのシンプルなアプローチを提案する。
RAREは、クエリがターゲットクエリとセマンティックに類似しているコンテキスト内の例で事前訓練されたモデルを微調整する。
RAReは、コンテキスト内例のないクエリを用いたモデルと比較して、ドメイン外一般化がより強力であることがわかった。
論文 参考訳(メタデータ) (2024-10-26T05:46:20Z) - Meta-Models: An Architecture for Decoding LLM Behaviors Through Interpreted Embeddings and Natural Language [0.0]
我々は「入力モデル」からアクティベーションを取り、入力モデルの振る舞いに関する自然言語質問に答える「メタモデル」を用いる。
選択したタスクタイプをトレーニングし,そのアウト・オブ・ディストリビューション性能を評価することによって,メタモデルの一般化能力を評価する。
論文 参考訳(メタデータ) (2024-10-03T13:25:15Z) - Database-Augmented Query Representation for Information Retrieval [59.57065228857247]
データベース拡張クエリ表現(DAQu)と呼ばれる新しい検索フレームワークを提案する。
DAQuは、元のクエリを複数のテーブルにまたがるさまざまな(クエリ関連の)メタデータで拡張する。
リレーショナルデータベースのメタデータを組み込む様々な検索シナリオにおいてDAQuを検証する。
論文 参考訳(メタデータ) (2024-06-23T05:02:21Z) - Evaluating Datalog Tools for Meta-reasoning over OWL 2 QL [3.344997561878685]
本稿では,DSER(Semantic Entailment Regime)を用いたメタモデリングセマンティックス(MS)について述べる。
様々なメタモデリング機能を可能にするいくつかの拡張が過去10年間に提案されてきた。
我々の研究は、MSERに対するDatalogアプローチが、限られたリソースでスケール可能なクエリにも実用的であることを示している。
論文 参考訳(メタデータ) (2024-02-05T13:06:35Z) - LLM Augmented LLMs: Expanding Capabilities through Composition [56.40953749310957]
CALM -- 言語モデルの拡張のための構成 -- は、モデル間の相互アテンションを導入して、表現を構成し、新しい機能を有効にする。
低リソース言語で訓練されたより小さなモデルでPaLM2-Sを増強すると、英語への翻訳のようなタスクで最大13%の改善が達成される。
PaLM2-Sがコード固有モデルで拡張されると、コード生成や説明タスクのベースモデルよりも40%向上する。
論文 参考訳(メタデータ) (2024-01-04T18:53:01Z) - Concrete Subspace Learning based Interference Elimination for Multi-task
Model Fusion [86.6191592951269]
一般的な事前訓練された大規模モデルから微調整されたマージングモデルは、様々なタスクに特化しているが、様々なタスクでうまく機能するマルチタスクモデルを構築するための安価でスケーラブルな戦略として実証されている。
本稿では、共通低次元部分空間を同定し、その共有情報トラック干渉問題を性能を犠牲にすることなく利用するための連続緩和(Concrete)部分空間学習法を提案する。
論文 参考訳(メタデータ) (2023-12-11T07:24:54Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - BitE : Accelerating Learned Query Optimization in a Mixed-Workload
Environment [0.36700088931938835]
BitEは、データベース統計とメタデータを使用して、学習したクエリをチューニングしてパフォーマンスを向上させる、新しいアンサンブル学習モデルである。
我々のモデルは従来の手法に比べて19.6%改善されたクエリと15.8%改善されたクエリを実現している。
論文 参考訳(メタデータ) (2023-06-01T16:05:33Z) - Chain-of-Skills: A Configurable Model for Open-domain Question Answering [79.8644260578301]
検索モデルは、現実世界の知識集約的なタスクに欠かせない要素である。
最近の研究はカスタマイズされたメソッドに焦点を合わせ、モデルの転送可能性とスケーラビリティを制限している。
本稿では,各モジュールがデータセット間で再利用可能なキースキルに対応するモジュールレトリバーを提案する。
論文 参考訳(メタデータ) (2023-05-04T20:19:39Z) - Improving Meta-learning for Low-resource Text Classification and
Generation via Memory Imitation [87.98063273826702]
本稿では,メモリ模倣メタラーニング(MemIML)手法を提案する。
本手法の有効性を証明するために理論的解析を行った。
論文 参考訳(メタデータ) (2022-03-22T12:41:55Z) - Making Table Understanding Work in Practice [9.352813774921655]
表理解モデルをデプロイする上での3つの課題について論じ,それに対応するためのフレームワークを提案する。
本稿では、GitTablesでトレーニングされたハイブリッドモデルをカプセル化し、軽量なHuman-in-the-loopアプローチを統合してモデルをカスタマイズするSigmaTyperを提案する。
論文 参考訳(メタデータ) (2021-09-11T03:38:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。