論文の概要: Assessing the Capability of Large Language Models for Domain-Specific Ontology Generation
- arxiv url: http://arxiv.org/abs/2504.17402v1
- Date: Thu, 24 Apr 2025 09:47:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.317687
- Title: Assessing the Capability of Large Language Models for Domain-Specific Ontology Generation
- Title(参考訳): ドメイン特化オントロジー生成のための大規模言語モデルの能力評価
- Authors: Anna Sofia Lippolis, Mohammad Javad Saeedizade, Robin Keskisarkka, Aldo Gangemi, Eva Blomqvist, Andrea Giovanni Nuzzolese,
- Abstract要約: 大規模言語モデル(LLM)は、オントロジー工学に大きな可能性を示している。
本稿では,2つの最先端LCM,DeepSeek と o1-preview の一般化可能性について,一連の有能な質問から考察する。
その結果,全ての領域で実験性能が著しく整合していることが判明した。
- 参考スコア(独自算出の注目度): 1.099532646524593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have shown significant potential for ontology engineering. However, it is still unclear to what extent they are applicable to the task of domain-specific ontology generation. In this study, we explore the application of LLMs for automated ontology generation and evaluate their performance across different domains. Specifically, we investigate the generalizability of two state-of-the-art LLMs, DeepSeek and o1-preview, both equipped with reasoning capabilities, by generating ontologies from a set of competency questions (CQs) and related user stories. Our experimental setup comprises six distinct domains carried out in existing ontology engineering projects and a total of 95 curated CQs designed to test the models' reasoning for ontology engineering. Our findings show that with both LLMs, the performance of the experiments is remarkably consistent across all domains, indicating that these methods are capable of generalizing ontology generation tasks irrespective of the domain. These results highlight the potential of LLM-based approaches in achieving scalable and domain-agnostic ontology construction and lay the groundwork for further research into enhancing automated reasoning and knowledge representation techniques.
- Abstract(参考訳): 大規模言語モデル(LLM)は、オントロジー工学に大きな可能性を示している。
しかし、それがドメイン固有のオントロジー生成のタスクにどの程度適用されているかは、まだ不明である。
本研究では,LLMのオントロジー自動生成への応用について検討し,その性能評価を行った。
具体的には,2つの最先端LCM,DeepSeek,o1-previewの一般化可能性について,一連の能力質問(CQ)と関連するユーザストーリーからオントロジーを生成することによって考察する。
実験装置は,既存のオントロジー工学プロジェクトで実施されている6つの異なる領域と,モデルによるオントロジー工学の推論をテストするために設計された95個のキュレートされたCQから構成される。
以上の結果から,両LLMでは各領域間で実験性能が著しく整合し,各領域によらずオントロジー生成タスクを一般化できることが示唆された。
これらの結果は、スケーラブルでドメインに依存しないオントロジー構築の実現におけるLLMベースのアプローチの可能性を強調し、自動推論および知識表現技術のさらなる研究の基盤となる。
関連論文リスト
- A Call for New Recipes to Enhance Spatial Reasoning in MLLMs [85.67171333213301]
MLLM(Multimodal Large Language Models)は、一般的な視覚言語タスクにおいて印象的な性能を示す。
近年の研究では、空間的推論能力の限界が明らかにされている。
この空間的推論の欠如は、MLLMが物理的世界と効果的に相互作用する能力を著しく制限する。
論文 参考訳(メタデータ) (2025-04-21T11:48:39Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Ontology Generation using Large Language Models [1.0037949839020768]
本稿では, メモリレスCQbyCQとOntogeniaという, 自動オントロジー開発のための2つの新しいプロンプト技術を紹介し, 評価する。
OpenAI o1-preview with Ontogeniaはエンジニアの要求を満たすのに十分な品質を提供する。
論文 参考訳(メタデータ) (2025-03-07T13:03:28Z) - LLMs4Life: Large Language Models for Ontology Learning in Life Sciences [10.658387847149195]
既存のLarge Language Models(LLM)は、複数の階層レベル、豊富な相互接続、包括的なカバレッジで生成するのに苦労しています。
我々は,先進的な急進的工学技術を用いたLCMを用いたオントロジー学習のためのNeOn-GPTを拡張した。
本評価は,LLMの学習性を示すもので,長期にわたるモデル性能とスケーラビリティの限界に対する解決策を提供するものである。
論文 参考訳(メタデータ) (2024-12-02T23:31:52Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - A RAG Approach for Generating Competency Questions in Ontology Engineering [1.0044270899550196]
LLM(Large Language Models)の出現により、このプロセスの自動化と強化が可能になった。
本稿では,LLMを用いてCQの自動生成を行うRAG(Research-augmented Generation)手法を提案する。
2つのドメインエンジニアリングタスクで GPT-4 を用いて実験を行い、ドメインの専門家が構築した地味な CQ と比較する。
論文 参考訳(メタデータ) (2024-09-13T13:34:32Z) - Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オンロジはドメインの知識とメタデータを表現するために広く使われている。
直接支援できる論理的推論は、学習、近似、予測において非常に限られています。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - On the Use of Large Language Models to Generate Capability Ontologies [43.06143768014157]
大規模言語モデル(LLM)は、自然言語テキスト入力から機械解釈可能なモデルを生成することができることを示した。
本稿では,LLMを用いて機能を実現する方法について検討する。
論文 参考訳(メタデータ) (2024-04-26T16:41:00Z) - Large language models as oracles for instantiating ontologies with domain-specific knowledge [0.0]
ドメイン固有の知識を自動的にインスタンス化するドメインに依存しない手法を提案する。
提案手法は,複数回クエリを行い,その応答からクラスとプロパティのインスタンスを生成する。
実験により,本手法は最先端技術よりも最大5倍高い精度を実現した。
論文 参考訳(メタデータ) (2024-04-05T14:04:07Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。