論文の概要: On the Use of Large Language Models to Generate Capability Ontologies
- arxiv url: http://arxiv.org/abs/2404.17524v1
- Date: Fri, 26 Apr 2024 16:41:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 12:35:26.074690
- Title: On the Use of Large Language Models to Generate Capability Ontologies
- Title(参考訳): 大規模言語モデルを用いた機能オントロジーの生成について
- Authors: Luis Miguel Vieira da Silva, Aljosha Köcher, Felix Gehlhoff, Alexander Fay,
- Abstract要約: 大規模言語モデル(LLM)は、自然言語テキスト入力から機械解釈可能なモデルを生成することができることを示した。
本稿では,LLMを用いて機能を実現する方法について検討する。
- 参考スコア(独自算出の注目度): 43.06143768014157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capability ontologies are increasingly used to model functionalities of systems or machines. The creation of such ontological models with all properties and constraints of capabilities is very complex and can only be done by ontology experts. However, Large Language Models (LLMs) have shown that they can generate machine-interpretable models from natural language text input and thus support engineers / ontology experts. Therefore, this paper investigates how LLMs can be used to create capability ontologies. We present a study with a series of experiments in which capabilities with varying complexities are generated using different prompting techniques and with different LLMs. Errors in the generated ontologies are recorded and compared. To analyze the quality of the generated ontologies, a semi-automated approach based on RDF syntax checking, OWL reasoning, and SHACL constraints is used. The results of this study are very promising because even for complex capabilities, the generated ontologies are almost free of errors.
- Abstract(参考訳): 機能オントロジーは、システムやマシンの機能のモデル化にますます利用されている。
あらゆる性質と能力の制約を持つそのような存在論的モデルの作成は非常に複雑であり、オントロジーの専門家によってのみ可能である。
しかし、Large Language Models (LLMs) は、自然言語テキスト入力から機械解釈可能なモデルを生成することができ、したがってエンジニアやオントロジーの専門家をサポートすることを示した。
そこで本研究では,LLMを用いて機能オントロジーを創出する方法について検討する。
本稿では、異なるプロンプト技術と異なるLLMを用いて、様々な複雑さを持つ能力を生成する一連の実験について述べる。
生成されたオントロジーのエラーを記録し、比較する。
生成されたオントロジーの品質を分析するために、RDF構文チェック、OWL推論、SHACL制約に基づく半自動アプローチを用いる。
この研究結果は、複雑な能力であっても生成したオントロジにはほとんど誤りがないため、非常に有望である。
関連論文リスト
- Examining the Robustness of Large Language Models across Language Complexity [19.184633713069353]
大規模言語モデル(LLM)は、学生が学習を理解し評価するために生成したテキスト成果物を分析する。
本研究では,数学の問題解決において,学生の自己制御学習(SRL)を検出するLLMベースの学生モデルのロバスト性について検討した。
論文 参考訳(メタデータ) (2025-01-30T20:33:59Z) - LLMs4Life: Large Language Models for Ontology Learning in Life Sciences [10.658387847149195]
既存のLarge Language Models(LLM)は、複数の階層レベル、豊富な相互接続、包括的なカバレッジで生成するのに苦労しています。
我々は,先進的な急進的工学技術を用いたLCMを用いたオントロジー学習のためのNeOn-GPTを拡張した。
本評価は,LLMの学習性を示すもので,長期にわたるモデル性能とスケーラビリティの限界に対する解決策を提供するものである。
論文 参考訳(メタデータ) (2024-12-02T23:31:52Z) - Toward a Method to Generate Capability Ontologies from Natural Language Descriptions [43.06143768014157]
この貢献は、Large Language Models (LLMs) を用いた能力オントロジーモデリングを自動化する革新的な方法である。
我々のアプローチでは、能力の自然言語記述しか必要とせず、事前に定義されたプロンプトに自動的に挿入される。
提案手法は,最初の自然言語記述と最終的な人間のレビューと修正を行う必要があるため,手作業を大幅に削減する。
論文 参考訳(メタデータ) (2024-06-12T07:41:44Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Large language models as oracles for instantiating ontologies with domain-specific knowledge [0.0]
ドメイン固有の知識を自動的にインスタンス化するドメインに依存しない手法を提案する。
提案手法は,複数回クエリを行い,その応答からクラスとプロパティのインスタンスを生成する。
実験により,本手法は最先端技術よりも最大5倍高い精度を実現した。
論文 参考訳(メタデータ) (2024-04-05T14:04:07Z) - Large Language Models as General Pattern Machines [64.75501424160748]
我々は,事前訓練された大規模言語モデル (LLM) が,複雑なトークンシーケンスを自動回帰的に完了することを示す。
驚いたことに、語彙からランダムにサンプリングされたトークンを用いてシーケンスが表現された場合でも、パターン完了の習熟度を部分的に保持することができる。
本研究では,ロボット工学における問題に対して,これらのゼロショット機能がどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-07-10T17:32:13Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部動作を理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがこのCFG言語を正確に学習し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - Causal Abstractions of Neural Networks [9.291492712301569]
本稿では,テキストの抽象の形式的理論に基づく新しい構造解析手法を提案する。
本稿では,Multiply Quantified Natural Language Inference (MQNLI) コーパスで学習したニューラルネットワークの解析に本手法を適用した。
論文 参考訳(メタデータ) (2021-06-06T01:07:43Z) - DirectDebug: Automated Testing and Debugging of Feature Models [55.41644538483948]
変数モデル(例えば、特徴モデル)は、ソフトウェアアーティファクトの変数と共通性を表現する一般的な方法である。
複雑でしばしば大規模な機能モデルは欠陥になりうる、すなわち、ソフトウェアアーチファクトの期待される変動特性を表現しない。
論文 参考訳(メタデータ) (2021-02-11T11:22:20Z) - Reverse Engineering Configurations of Neural Text Generation Models [86.9479386959155]
モデル選択の結果、機械が生成したテキストに現れるアーティファクトの研究は、新しい研究領域である。
我々は、モデリング選択が検出可能なアーティファクトを生成テキストに残すかどうかを確認するために、広範囲な診断テストを実行する。
我々の重要な発見は、厳密な実験によって裏付けられ、そのような成果物が存在することと、生成されたテキストのみを観察することで異なるモデリング選択を推測できることである。
論文 参考訳(メタデータ) (2020-04-13T21:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。