論文の概要: Ontology engineering with Large Language Models
- arxiv url: http://arxiv.org/abs/2307.16699v1
- Date: Mon, 31 Jul 2023 14:18:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 14:12:44.905080
- Title: Ontology engineering with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたオントロジー工学
- Authors: Patricia Mateiu and Adrian Groza
- Abstract要約: 我々は、自然言語文を関数構文に変換するために、GPT-3モデルを微調整する。
結果として生じる公理は、OWLをヒトに監督された方法で強化するために用いられる。
開発ツールはProtgeプラグインとして公開されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We tackle the task of enriching ontologies by automatically translating
natural language sentences into Description Logic. Since Large Language Models
(LLMs) are the best tools for translations, we fine-tuned a GPT-3 model to
convert Natural Language sentences into OWL Functional Syntax. We employ
objective and concise examples to fine-tune the model regarding: instances,
class subsumption, domain and range of relations, object properties
relationships, disjoint classes, complements, cardinality restrictions. The
resulted axioms are used to enrich an ontology, in a human supervised manner.
The developed tool is publicly provided as a Protge plugin.
- Abstract(参考訳): 自然言語文を記述論理に自動翻訳することで、オントロジーを豊かにするタスクに取り組む。
LLM(Large Language Models)が翻訳に最適なツールであるため,自然言語文をOWL関数構文に変換するために,GPT-3モデルを微調整した。
インスタンス、クラスサブスケープ、ドメインとリレーションの範囲、オブジェクトプロパティの関係、disjointクラス、補数、基数制限などに関するモデルを微調整するために、客観的かつ簡潔な例を用いています。
得られた公理は、人間の監督によってオントロジーを豊かにするために用いられる。
開発ツールはProtgeプラグインとして公開されている。
関連論文リスト
- Learning Semantic Structure through First-Order-Logic Translation [4.005483185111992]
言語モデルは、どのオブジェクトに適用されるかの述語を混乱させることがある。
一般化能力を評価するために設計された合成データセット上で、いくつかの大きな言語モデルを微調整する。
その結果,LLMのFOL翻訳は述語構造を学習するのに適していることがわかった。
論文 参考訳(メタデータ) (2024-10-04T07:39:34Z) - Boosting the Capabilities of Compact Models in Low-Data Contexts with Large Language Models and Retrieval-Augmented Generation [2.9921619703037274]
本稿では,形態素解析の言語タスクにおいて,より小さなモデルの出力を補正するために,大言語モデル(LLM)を基盤とした検索拡張生成(RAG)フレームワークを提案する。
データ不足や訓練可能なパラメータの不足を補うために,言語情報を活用するとともに,LLMを通して解釈・蒸留された記述文法からの入力を許容する。
コンパクトなRAG支援モデルがデータスカース設定に極めて有効であることを示し、このタスクとターゲット言語に対する新しい最先端技術を実現する。
論文 参考訳(メタデータ) (2024-10-01T04:20:14Z) - Syntax and Semantics Meet in the "Middle": Probing the Syntax-Semantics
Interface of LMs Through Agentivity [68.8204255655161]
このような相互作用を探索するためのケーススタディとして,作用性のセマンティックな概念を提示する。
これは、LMが言語アノテーション、理論テスト、発見のためのより有用なツールとして役立つ可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T16:24:01Z) - CLSE: Corpus of Linguistically Significant Entities [58.29901964387952]
専門家が注釈を付けた言語学的に重要なエンティティ(CLSE)のコーパスをリリースする。
CLSEは74種類のセマンティックタイプをカバーし、航空券売機からビデオゲームまで様々なアプリケーションをサポートする。
言語的に代表されるNLG評価ベンチマークを,フランス語,マラティー語,ロシア語の3言語で作成する。
論文 参考訳(メタデータ) (2022-11-04T12:56:12Z) - Formal Specifications from Natural Language [3.1806743741013657]
本稿では,自然言語を複雑な意味を持つ形式仕様に翻訳する言語モデルについて検討する。
特に、構造化英語文からなる3つのデータセット上で、オフザシェルフ言語モデルを微調整する。
論文 参考訳(メタデータ) (2022-06-04T10:49:30Z) - Constrained Language Models Yield Few-Shot Semantic Parsers [73.50960967598654]
我々は,事前学習された大規模言語モデルの利用を,少ない意味論として検討する。
意味構文解析の目標は、自然言語入力によって構造化された意味表現を生成することである。
言語モデルを用いて、入力を英語に似た制御されたサブ言語にパラフレーズし、対象の意味表現に自動的にマッピングする。
論文 参考訳(メタデータ) (2021-04-18T08:13:06Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Learning Universal Representations from Word to Sentence [89.82415322763475]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
本稿では, 単語, 句, 文の観点から, 類似したデータセットを構築するためのアプローチを提案する。
適切なトレーニング設定を組み込んだよく訓練されたトランスフォーマーモデルが、効果的に普遍的な表現が得られることを実証的に検証する。
論文 参考訳(メタデータ) (2020-09-10T03:53:18Z) - DomBERT: Domain-oriented Language Model for Aspect-based Sentiment
Analysis [71.40586258509394]
本研究では、ドメイン内コーパスと関連するドメインコーパスの両方から学習するためのBERTの拡張であるDomBERTを提案する。
アスペクトベース感情分析における課題の整理実験を行い、有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-28T21:07:32Z) - Exploring Neural Models for Parsing Natural Language into First-Order
Logic [10.62143644603835]
英文を1次論理(FOL)に解析する際のニューラルモデルの有用性について検討する。
自然言語文が与えられた場合のシーケンスマッピングタスクとしてFOL解析をモデル化し、LSTMを用いて中間表現に符号化し、次に対応するFOL式で述語を逐次生成するデコーダを用いる。
論文 参考訳(メタデータ) (2020-02-16T09:22:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。