論文の概要: An Experiment in Retrofitting Competency Questions for Existing
Ontologies
- arxiv url: http://arxiv.org/abs/2311.05662v1
- Date: Thu, 9 Nov 2023 08:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 17:00:23.851079
- Title: An Experiment in Retrofitting Competency Questions for Existing
Ontologies
- Title(参考訳): 既存のオントロジーにおけるコンピテンシー質問の再適合実験
- Authors: Reham Alharbi and Valentina Tamma and Floriana Grasso and Terry Payne
- Abstract要約: 公理とともにCQを検査することは、CQのスコープと適用性に関する重要な洞察を提供する。
CQは工学的手法の大多数に不可欠なものであるが、工芸品とともにCQを出版する実践は広くは観察されていない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Competency Questions (CQs) are a form of ontology functional requirements
expressed as natural language questions. Inspecting CQs together with the
axioms in an ontology provides critical insights into the intended scope and
applicability of the ontology. CQs also underpin a number of tasks in the
development of ontologies e.g. ontology reuse, ontology testing, requirement
specification, and the definition of patterns that implement such requirements.
Although CQs are integral to the majority of ontology engineering
methodologies, the practice of publishing CQs alongside the ontological
artefacts is not widely observed by the community. In this context, we present
an experiment in retrofitting CQs from existing ontologies. We propose
RETROFIT-CQs, a method to extract candidate CQs directly from ontologies using
Generative AI. In the paper we present the pipeline that facilitates the
extraction of CQs by leveraging Large Language Models (LLMs) and we discuss its
application to a number of existing ontologies.
- Abstract(参考訳): competency questions (cqs) は自然言語質問として表現されるオントロジー機能要求の形式である。
オントロジーにおける公理とともにCQを検査することは、オントロジーの意図されたスコープと適用可能性に関する重要な洞察を与える。
cqsはまたオントロジーの再利用、オントロジーテスト、要求仕様、そのような要求を実装するパターンの定義など、オントロジーの開発における多くのタスクも担っている。
CQは、ほとんどのオントロジー工学手法に不可欠なものであるが、CQをオントロジーアーティファクトと共に出版するプラクティスは、コミュニティによって広くは見られていない。
この文脈では、既存のオントロジーからCQを再構成する実験を示す。
生成AIを用いたオントロジーから直接候補CQを抽出するRETROFIT-CQを提案する。
本稿では,大規模言語モデル(llms)を活用して,cqsの抽出を容易にするパイプラインについて述べる。
関連論文リスト
- A RAG Approach for Generating Competency Questions in Ontology Engineering [1.0044270899550196]
LLM(Large Language Models)の出現により、このプロセスの自動化と強化が可能になった。
本稿では,LLMを用いてCQの自動生成を行うRAG(Research-augmented Generation)手法を提案する。
2つのドメインエンジニアリングタスクで GPT-4 を用いて実験を行い、ドメインの専門家が構築した地味な CQ と比較する。
論文 参考訳(メタデータ) (2024-09-13T13:34:32Z) - Controlled Query Evaluation through Epistemic Dependencies [7.502796412126707]
本稿では,このフレームワークの表現能力を示し,CQEの(一対の)結合クエリにおけるデータ複雑性について検討する。
本稿では,非循環的依存関係の場合のトラクタビリティを,適切なクエリアルゴリズムを提供することにより証明する。
論文 参考訳(メタデータ) (2024-05-03T19:48:07Z) - Structural generalization is hard for sequence-to-sequence models [85.0087839979613]
シーケンス・ツー・シーケンス(seq2seq)モデルは、多くのNLPタスクで成功している。
構成一般化に関する最近の研究は、セq2seqモデルは訓練で見られなかった言語構造への一般化において非常に低い精度を達成することを示した。
論文 参考訳(メタデータ) (2022-10-24T09:03:03Z) - ProQA: Structural Prompt-based Pre-training for Unified Question
Answering [84.59636806421204]
ProQAは統一されたQAパラダイムであり、単一のモデルによって様々なタスクを解決する。
全てのQAタスクの知識一般化を同時にモデル化し、特定のQAタスクの知識カスタマイズを維持します。
ProQAは、フルデータの微調整、数ショットの学習、ゼロショットテストシナリオの両方のパフォーマンスを一貫して向上させる。
論文 参考訳(メタデータ) (2022-05-09T04:59:26Z) - Finite Entailment of UCRPQs over ALC Ontologies [0.82179684645881]
我々は、クエリ言語、結合正則経路クエリの結合(UCRPQ)を考える。
記述論理 ALC を用いて,UCRPQ の包含のための厳密な 2EXP バウンドを示す。
入力オートマトンの背後にある決定論的有限オートマトンによって誘導される解釈の階層化を導入する新しいオートマトンベースの技術がある。
論文 参考訳(メタデータ) (2022-04-29T17:38:13Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - BigCQ: A large-scale synthetic dataset of competency question patterns
formalized into SPARQL-OWL query templates [0.06445605125467574]
BigCQは、SPARQL-OWLクエリテンプレートへのフォーマル化を備えた、CQテンプレートの最大のデータセットである。
データセットを詳細に記述し、データセットの作成に繋がるプロセスの説明と、データセットが実際の例をどのようにカバーしているかを分析する。
論文 参考訳(メタデータ) (2021-05-20T07:59:59Z) - Retrieving and Reading: A Comprehensive Survey on Open-domain Question
Answering [62.88322725956294]
OpenQAの最近の研究動向を概観し、特にニューラルMSC技術を導入したシステムに注目した。
Retriever-Reader' と呼ばれる最新の OpenQA アーキテクチャを導入し、このアーキテクチャに従うさまざまなシステムを分析します。
次に、OpenQAシステムの開発における主要な課題について議論し、一般的に使用されるベンチマークの分析を提供する。
論文 参考訳(メタデータ) (2021-01-04T04:47:46Z) - Question Answering over Knowledge Bases by Leveraging Semantic Parsing
and Neuro-Symbolic Reasoning [73.00049753292316]
本稿では,意味解析と推論に基づくニューロシンボリック質問回答システムを提案する。
NSQAはQALD-9とLC-QuAD 1.0で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-12-03T05:17:55Z) - A Review of Uncertainty Quantification in Deep Learning: Techniques,
Applications and Challenges [76.20963684020145]
不確実性定量化(UQ)は、最適化と意思決定プロセスの両方において不確実性の低減に重要な役割を果たしている。
ビザレ近似とアンサンブル学習技術は、文学において最も広く使われている2つのUQ手法である。
本研究は, 深層学習におけるUQ手法の最近の進歩を概観し, 強化学習におけるこれらの手法の適用について検討する。
論文 参考訳(メタデータ) (2020-11-12T06:41:05Z) - CliniQG4QA: Generating Diverse Questions for Domain Adaptation of
Clinical Question Answering [27.45623324582005]
臨床質問応答(英: Clinical Question answering, QA)は、臨床テキストに基づく医療専門家の質問に自動的に答えることを目的としている。
CliniQG4QAを提案する。これは質問生成(QG)を利用して、新しい臨床状況に基づいてQAペアを合成する。
QAモデルのトレーニングに不可欠な多様な質問を生成するために,Seq2seqベースの質問句予測(QPP)モジュールを導入する。
論文 参考訳(メタデータ) (2020-10-30T02:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。