論文の概要: Development of Ontological Knowledge Bases by Leveraging Large Language Models
- arxiv url: http://arxiv.org/abs/2601.10436v1
- Date: Thu, 15 Jan 2026 14:30:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.167383
- Title: Development of Ontological Knowledge Bases by Leveraging Large Language Models
- Title(参考訳): 大規模言語モデルを活用したオントロジー知識ベースの開発
- Authors: Le Ngoc Luyen, Marie-Hélène Abel, Philippe Gouspillou,
- Abstract要約: オントロジー知識基盤(OKB)はドメイン固有の知識の構造化において重要な役割を担い、効果的な知識管理システムの基礎として機能する。
ジェネレーティブAI、特にLarge Language Models(LLMs)の最近の進歩は、OKB開発を自動化および拡張するための有望なソリューションを提供する。
本稿では,LLMを利用して知識獲得を最適化し,オントロジーアーティファクト生成を自動化し,継続的な改善サイクルを可能にする構造的かつ反復的な手法を提案する。
- 参考スコア(独自算出の注目度): 1.1470070927586018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ontological Knowledge Bases (OKBs) play a vital role in structuring domain-specific knowledge and serve as a foundation for effective knowledge management systems. However, their traditional manual development poses significant challenges related to scalability, consistency, and adaptability. Recent advancements in Generative AI, particularly Large Language Models (LLMs), offer promising solutions for automating and enhancing OKB development. This paper introduces a structured, iterative methodology leveraging LLMs to optimize knowledge acquisition, automate ontology artifact generation, and enable continuous refinement cycles. We demonstrate this approach through a detailed case study focused on developing a user context profile ontology within the vehicle sales domain. Key contributions include significantly accelerated ontology construction processes, improved ontological consistency, effective bias mitigation, and enhanced transparency in the ontology engineering process. Our findings highlight the transformative potential of integrating LLMs into ontology development, notably improving scalability, integration capabilities, and overall efficiency in knowledge management systems.
- Abstract(参考訳): オントロジー知識基盤(OKB)はドメイン固有の知識の構造化において重要な役割を担い、効果的な知識管理システムの基礎として機能する。
しかしながら、従来の手作業による開発は、スケーラビリティ、一貫性、適応性に関する大きな課題を生んでいる。
ジェネレーティブAI、特にLarge Language Models(LLMs)の最近の進歩は、OKB開発を自動化および拡張するための有望なソリューションを提供する。
本稿では,LLMを利用して知識獲得を最適化し,オントロジーアーティファクト生成を自動化し,継続的な改善サイクルを可能にする構造的かつ反復的な手法を提案する。
本稿では,自動車販売領域内におけるユーザコンテキストプロファイルオントロジーの開発に焦点をあてた詳細なケーススタディを通じて,このアプローチを実証する。
主な貢献は、オントロジー構築プロセスの大幅な高速化、オントロジー整合性の改善、効果的なバイアス緩和、オントロジーエンジニアリングプロセスの透明性の向上である。
本研究は,LLMをオントロジー開発に統合し,拡張性,統合性,知識管理システムの全体的な効率化を図ったものである。
関連論文リスト
- AI- and Ontology-Based Enhancements to FMEA for Advanced Systems Engineering: Current Developments and Future Directions [1.1254693939127907]
我々は、従来のモード・アンド・エフェクト・アナリティクス(FMEA)を、よりインテリジェントで、データ駆動で、セマンティックに強化されたプロセスに変換することを目的とした最近の進歩についてレビューする。
機械学習や自然言語処理など、人工知能(AI)のテクニックが、FMEAをよりダイナミックでデータ駆動のプロセスに変換する方法について検討する。
論文 参考訳(メタデータ) (2025-11-21T19:51:06Z) - A Review of Developmental Interpretability in Large Language Models [0.0]
本総説では,大規模言語モデルの発達的解釈可能性について概説する。
我々は、トレーニングされたモデルの静的なポストホック解析から、トレーニングプロセス自体の動的調査まで、フィールドの進化をグラフ化する。
論文 参考訳(メタデータ) (2025-08-19T18:19:16Z) - Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation [77.10390725623125]
検索強化世代(RAG)は知識範囲の拡大に広く利用されている。
RAGは、オープンドメインの質問応答のような知識集約的なタスクを約束しているので、複雑なタスクやインテリジェントアシスタントへの幅広い応用は、その実用性をさらに進歩させてきた。
本稿では、RAGが内部(パラメトリック)知識と外部(検索)知識を統合する本質的なメカニズムを体系的に検討する。
論文 参考訳(メタデータ) (2025-05-17T13:13:13Z) - How Do LLMs Acquire New Knowledge? A Knowledge Circuits Perspective on Continual Pre-Training [92.88889953768455]
大きな言語モデル(LLM)は、どのようにして新しい知識を内部化するかを理解する上で、重大なギャップに直面します。
知識記憶と処理を容易にする計算サブグラフを同定する。
論文 参考訳(メタデータ) (2025-02-16T16:55:43Z) - A Comprehensive Survey on Integrating Large Language Models with Knowledge-Based Methods [4.686190098233778]
大規模言語モデル(LLM)は構造化知識ベースシステムと統合することができる。
本稿では, LLMと知識基盤の関係を調査し, 実際に適用できる方法について検討し, 技術的, 運用的, 倫理的課題について考察する。
これは、データコンテキスト化、モデル精度、知識リソースの利用に関する構造化知識ベースシステムに生成AIを組み込むことの利点を示す。
論文 参考訳(メタデータ) (2025-01-19T23:25:21Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Large Language Model Enhanced Knowledge Representation Learning: A Survey [15.602891714371342]
知識表現学習(KRL)は、知識グラフから下流タスクへの記号的知識の適用を可能にするために重要である。
この研究は、これらの進化する領域における新たな研究方向を同時に特定しながら、下流のタスクの広範な概要を提供する。
論文 参考訳(メタデータ) (2024-07-01T03:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。