論文の概要: BigCQ: A large-scale synthetic dataset of competency question patterns
formalized into SPARQL-OWL query templates
- arxiv url: http://arxiv.org/abs/2105.09574v1
- Date: Thu, 20 May 2021 07:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:37:36.111907
- Title: BigCQ: A large-scale synthetic dataset of competency question patterns
formalized into SPARQL-OWL query templates
- Title(参考訳): BigCQ: SPARQL-OWLクエリテンプレートに形式化された有能な質問パターンの大規模合成データセット
- Authors: Dawid Wi\'sniewski and J\k{e}drzej Potoniec and Agnieszka
{\L}awrynowicz
- Abstract要約: BigCQは、SPARQL-OWLクエリテンプレートへのフォーマル化を備えた、CQテンプレートの最大のデータセットである。
データセットを詳細に記述し、データセットの作成に繋がるプロセスの説明と、データセットが実際の例をどのようにカバーしているかを分析する。
- 参考スコア(独自算出の注目度): 0.06445605125467574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Competency Questions (CQs) are used in many ontology engineering
methodologies to collect requirements and track the completeness and
correctness of an ontology being constructed. Although they are frequently
suggested by ontology engineering methodologies, the publicly available
datasets of CQs and their formalizations in ontology query languages are very
scarce. Since first efforts to automate processes utilizing CQs are being made,
it is of high importance to provide large and diverse datasets to fuel these
solutions. In this paper, we present BigCQ, the biggest dataset of CQ templates
with their formalizations into SPARQL-OWL query templates. BigCQ is created
automatically from a dataset of frequently used axiom shapes. These pairs of CQ
templates and query templates can be then materialized as actual CQs and
SPARQL-OWL queries if filled with resource labels and IRIs from a given
ontology. We describe the dataset in detail, provide a description of the
process leading to the creation of the dataset and analyze how well the dataset
covers real-world examples. We also publish the dataset as well as scripts
transforming axiom shapes into pairs of CQ patterns and SPARQL-OWL templates,
to make engineers able to adapt the process to their particular needs.
- Abstract(参考訳): コンピテンシー質問 (CQ) は、多くのオントロジー工学手法において、要求を収集し、構築中のオントロジーの完全性と正確性を追跡するために用いられる。
オントロジー工学手法によってしばしば提案されるが、CQの公開データセットとオントロジークエリ言語での形式化は非常に少ない。
CQを利用したプロセスを自動化するための最初の取り組みが作成されているため、これらのソリューションを促進するために、大規模で多様なデータセットを提供することが重要である。
本稿では,CQテンプレートの最大データセットであるBigCQをSPARQL-OWLクエリテンプレートに形式化する。
BigCQは頻繁に使用される公理形状のデータセットから自動的に生成される。
これらのCQテンプレートとクエリテンプレートのペアは、与えられたオントロジーのリソースラベルとIRIで満たされた場合、実際のCQとSPARQL-OWLクエリとして実現される。
データセットを詳細に記述し、データセットの作成に繋がるプロセスの説明と、データセットが実際の例をどのようにカバーしているかを分析する。
また、データセットと公理形をcqパターンとsparql-owlテンプレートのペアに変換するスクリプトを公開して、エンジニアが特定のニーズにプロセスを適応できるようにしています。
関連論文リスト
- Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - CRAFT Your Dataset: Task-Specific Synthetic Dataset Generation Through Corpus Retrieval and Augmentation [51.2289822267563]
合成データセットを生成するCRAFT(Corpus Retrieval and Augmentation for Fine-Tuning)を提案する。
我々は、大規模な公開ウェブクローラコーパスと類似性に基づく文書検索を用いて、他の関連する人文文書を検索する。
我々は,CRAFTが4つのタスクに対して,大規模タスク固有のトレーニングデータセットを効率的に生成できることを実証した。
論文 参考訳(メタデータ) (2024-09-03T17:54:40Z) - TrustUQA: A Trustful Framework for Unified Structured Data Question Answering [45.480862651323115]
信頼性の高いQAフレームワークであるUnifiedTQAを提案する。
我々は,3種類の構造化データを対象とした5つのベンチマークでUnifiedTQAを評価した。
既存の2つの構造化されたデータQAメソッドを上回り、データタイプ固有のベースラインと比較すると、そのうち2つが最先端である。
論文 参考訳(メタデータ) (2024-06-27T06:13:05Z) - UQE: A Query Engine for Unstructured Databases [71.49289088592842]
構造化されていないデータ分析を可能にするために,大規模言語モデルの可能性を検討する。
本稿では,非構造化データ収集からの洞察を直接問合せ,抽出するUniversal Query Engine (UQE)を提案する。
論文 参考訳(メタデータ) (2024-06-23T06:58:55Z) - IQLS: Framework for leveraging Metadata to enable Large Language Model based queries to complex, versatile Data [0.20482269513546458]
Intelligent Query and Learning System (IQLS)は、自然言語を使ってデータ検索を単純化することで、プロセスを単純化する。
利用可能なメタデータと利用可能なデータモデルに基づいて、構造化されたデータをフレームワークにマッピングする。
IQLSは、インターフェイスを通じてユーザクエリによって与えられるタスクをエージェントが実行可能にする。
論文 参考訳(メタデータ) (2024-05-04T13:44:05Z) - NL2KQL: From Natural Language to Kusto Query [1.7931930942711818]
NL2KQLは、大規模言語モデル(LLM)を使用して自然言語クエリ(NLQ)をKusto Query Language(KQL)クエリに変換する革新的なフレームワークである。
NL2KQLのパフォーマンスを検証するために、オンライン(クエリ実行に基づく)とオフライン(クエリ解析に基づく)メトリクスの配列を使用します。
論文 参考訳(メタデータ) (2024-04-03T01:09:41Z) - LMGQS: A Large-scale Dataset for Query-focused Summarization [77.6179359525065]
我々は4つの一般的な要約ベンチマークを新しいQFSベンチマークデータセットであるLMGQSに変換する。
我々は最先端の要約モデルを用いてベースラインを確立する。
複数の既存のQFSベンチマークにおいて、最先端のゼロショットと教師付きパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-22T14:53:45Z) - NQE: N-ary Query Embedding for Complex Query Answering over
Hyper-Relational Knowledge Graphs [1.415350927301928]
複雑なクエリ応答は知識グラフの論理的推論に不可欠なタスクである。
ハイパーリレーショナル知識グラフ(HKG)上のCQAのための新しいN-ary Query Embedding (NQE)モデルを提案する。
NQEは二元変換器エンコーダとファジィ論理理論を用いて全てのn-ary FOLクエリを満たす。
我々は、WD50K上の多様なn-ary FOLクエリを含む、新しいCQAデータセットWD50K-NFOLを生成する。
論文 参考訳(メタデータ) (2022-11-24T08:26:18Z) - Exploring Sequence-to-Sequence Models for SPARQL Pattern Composition [0.5639451539396457]
構造化され、構造化されていないデータとして、インターネットに爆発的な情報が追加され、DBpediaやWikidataのような知識ベースが供給される。
質問回答システムの目的は、正規のクエリを書くことなく、自然言語でそのようなデータにアクセスできるようにすることである。
我々は、長い発話を複雑なSPARQLクエリに変換するための、シーケンス・ツー・シーケンス・モデルが実現可能で有望な選択肢であることを示す。
論文 参考訳(メタデータ) (2020-10-21T11:12:01Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。