論文の概要: On the Use of Large Language Models to Generate Capability Ontologies
- arxiv url: http://arxiv.org/abs/2404.17524v1
- Date: Fri, 26 Apr 2024 16:41:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 12:35:26.074690
- Title: On the Use of Large Language Models to Generate Capability Ontologies
- Title(参考訳): 大規模言語モデルを用いた機能オントロジーの生成について
- Authors: Luis Miguel Vieira da Silva, Aljosha Köcher, Felix Gehlhoff, Alexander Fay,
- Abstract要約: 大規模言語モデル(LLM)は、自然言語テキスト入力から機械解釈可能なモデルを生成することができることを示した。
本稿では,LLMを用いて機能を実現する方法について検討する。
- 参考スコア(独自算出の注目度): 43.06143768014157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capability ontologies are increasingly used to model functionalities of systems or machines. The creation of such ontological models with all properties and constraints of capabilities is very complex and can only be done by ontology experts. However, Large Language Models (LLMs) have shown that they can generate machine-interpretable models from natural language text input and thus support engineers / ontology experts. Therefore, this paper investigates how LLMs can be used to create capability ontologies. We present a study with a series of experiments in which capabilities with varying complexities are generated using different prompting techniques and with different LLMs. Errors in the generated ontologies are recorded and compared. To analyze the quality of the generated ontologies, a semi-automated approach based on RDF syntax checking, OWL reasoning, and SHACL constraints is used. The results of this study are very promising because even for complex capabilities, the generated ontologies are almost free of errors.
- Abstract(参考訳): 機能オントロジーは、システムやマシンの機能のモデル化にますます利用されている。
あらゆる性質と能力の制約を持つそのような存在論的モデルの作成は非常に複雑であり、オントロジーの専門家によってのみ可能である。
しかし、Large Language Models (LLMs) は、自然言語テキスト入力から機械解釈可能なモデルを生成することができ、したがってエンジニアやオントロジーの専門家をサポートすることを示した。
そこで本研究では,LLMを用いて機能オントロジーを創出する方法について検討する。
本稿では、異なるプロンプト技術と異なるLLMを用いて、様々な複雑さを持つ能力を生成する一連の実験について述べる。
生成されたオントロジーのエラーを記録し、比較する。
生成されたオントロジーの品質を分析するために、RDF構文チェック、OWL推論、SHACL制約に基づく半自動アプローチを用いる。
この研究結果は、複雑な能力であっても生成したオントロジにはほとんど誤りがないため、非常に有望である。
関連論文リスト
- End-to-End Ontology Learning with Large Language Models [11.755755139228219]
大規模言語モデル(LLM)は、オントロジー学習の様々なサブタスクを解決するために応用されている。
我々は、オントロジーの分類学的バックボーンをスクラッチから構築する汎用的でスケーラブルな方法であるOLLMによって、このギャップに対処する。
標準的なメトリクスとは対照的に、私たちのメトリクスは、グラフ間のより堅牢な構造的距離測定を定義するためにディープラーニング技術を使用します。
私たちのモデルは、arXivのような新しいドメインに効果的に適用できます。
論文 参考訳(メタデータ) (2024-10-31T02:52:39Z) - Toward a Method to Generate Capability Ontologies from Natural Language Descriptions [43.06143768014157]
この貢献は、Large Language Models (LLMs) を用いた能力オントロジーモデリングを自動化する革新的な方法である。
我々のアプローチでは、能力の自然言語記述しか必要とせず、事前に定義されたプロンプトに自動的に挿入される。
提案手法は,最初の自然言語記述と最終的な人間のレビューと修正を行う必要があるため,手作業を大幅に削減する。
論文 参考訳(メタデータ) (2024-06-12T07:41:44Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Large language models as oracles for instantiating ontologies with domain-specific knowledge [0.0]
セマンティックなデータでインテリジェントなシステムを構築するには、ドメイン固有の知識を設計し、インスタンス化する必要がある。
結果として得られる経験プロセスは、時間を要する、エラーを起こしやすい、オントロジーデザイナーの個人的な背景に偏っていることが多い。
ドメイン固有の知識を自動的にインスタンス化するための,ドメインに依存しない新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:04:07Z) - Local Large Language Models for Complex Structured Medical Tasks [0.0]
本稿では,大規模言語モデルの言語推論機能と,複雑なドメイン特化タスクに取り組むための局所学習の利点を組み合わせたアプローチを提案する。
具体的には,病理報告から構造化条件コードを抽出し,そのアプローチを実証する。
論文 参考訳(メタデータ) (2023-08-03T12:36:13Z) - Large Language Models as General Pattern Machines [64.75501424160748]
我々は,事前訓練された大規模言語モデル (LLM) が,複雑なトークンシーケンスを自動回帰的に完了することを示す。
驚いたことに、語彙からランダムにサンプリングされたトークンを用いてシーケンスが表現された場合でも、パターン完了の習熟度を部分的に保持することができる。
本研究では,ロボット工学における問題に対して,これらのゼロショット機能がどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-07-10T17:32:13Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部動作を理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがこのCFG言語を正確に学習し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - Causal Abstractions of Neural Networks [9.291492712301569]
本稿では,テキストの抽象の形式的理論に基づく新しい構造解析手法を提案する。
本稿では,Multiply Quantified Natural Language Inference (MQNLI) コーパスで学習したニューラルネットワークの解析に本手法を適用した。
論文 参考訳(メタデータ) (2021-06-06T01:07:43Z) - DirectDebug: Automated Testing and Debugging of Feature Models [55.41644538483948]
変数モデル(例えば、特徴モデル)は、ソフトウェアアーティファクトの変数と共通性を表現する一般的な方法である。
複雑でしばしば大規模な機能モデルは欠陥になりうる、すなわち、ソフトウェアアーチファクトの期待される変動特性を表現しない。
論文 参考訳(メタデータ) (2021-02-11T11:22:20Z) - Reverse Engineering Configurations of Neural Text Generation Models [86.9479386959155]
モデル選択の結果、機械が生成したテキストに現れるアーティファクトの研究は、新しい研究領域である。
我々は、モデリング選択が検出可能なアーティファクトを生成テキストに残すかどうかを確認するために、広範囲な診断テストを実行する。
我々の重要な発見は、厳密な実験によって裏付けられ、そのような成果物が存在することと、生成されたテキストのみを観察することで異なるモデリング選択を推測できることである。
論文 参考訳(メタデータ) (2020-04-13T21:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。