論文の概要: Construct, Align, and Reason: Large Ontology Models for Enterprise Knowledge Management
- arxiv url: http://arxiv.org/abs/2602.00029v1
- Date: Sun, 18 Jan 2026 05:30:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.23003
- Title: Construct, Align, and Reason: Large Ontology Models for Enterprise Knowledge Management
- Title(参考訳): Construct, Align, and Reason: 企業知識管理のための大規模オントロジーモデル
- Authors: Yao Zhang, Hongyin Zhu,
- Abstract要約: 従来の知識グラフは暗黙の関係発見に苦慮し、複雑な質問に対する十分な意味理解が欠けている。
我々は,大規模オントロジーモデル (LOM) である統合構成-アライン-レアソンフレームワークを導入する。
構造理解を改善するため,オントロジー命令の微調整,ノードセマンティックエンコーディングを強化するためにテキストオントロジーを基礎とする,カリキュラム学習によるオントロジー言語対をマルチタスクでチューニングし,セマンティック推論を強化する,という3段階の訓練パイプラインを提案する。
- 参考スコア(独自算出の注目度): 9.901440359781732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enterprise-scale knowledge management faces significant challenges in integrating multi-source heterogeneous data and enabling effective semantic reasoning. Traditional knowledge graphs often struggle with implicit relationship discovery and lack sufficient semantic understanding for complex question answering. To address these limitations, we introduce a unified construct--align--reason framework, the large ontology model (LOM). We first build a dual-layer enterprise ontology from structured databases and unstructured text, subsequently fusing these sources into a comprehensive enterprise ontology. To enable instruction-aligned reasoning, we propose a unified three-stage training pipeline: ontology instruction fine-tuning to improve structural understanding; text-ontology grounding to strengthen node semantic encoding; and multi-task instruction tuning on ontology-language pairs with curriculum learning to enhance semantic reasoning and generation. We also construct comprehensive training and evaluation datasets covering diverse ontology reasoning tasks. On this benchmark, our 4B-parameter LOM achieves 89.47% accuracy and outperforms DeepSeek-V3.2 on complex graph reasoning, indicating effective fusion of ontology structure and language.
- Abstract(参考訳): エンタープライズ規模の知識管理は、マルチソースの異種データの統合と効果的なセマンティック推論の実現において大きな課題に直面している。
伝統的な知識グラフは暗黙の関係発見に苦しむことが多く、複雑な質問に対する十分な意味理解が欠如している。
これらの制約に対処するため,我々は大規模オントロジーモデル (LOM) である統合構成-アライン-レアソンフレームワークを導入する。
まず、構造化データベースと非構造化テキストから二層エンタープライズオントロジーを構築し、その後、これらのソースを包括的なエンタープライズオントロジーに融合させます。
命令整合推論を実現するために,構造理解を改善するためのオントロジー命令微調整,ノード意味エンコーディングを強化するためのテキストオントロジー基盤,教育学習によるオントロジー-言語対のマルチタスク指導,およびセマンティック推論と生成を強化するための3段階学習パイプラインを提案する。
また,多様なオントロジー推論タスクをカバーする総合的なトレーニングと評価データセットを構築した。
このベンチマークでは、我々の4BパラメータLOMは89.47%の精度を達成し、複雑なグラフ推論においてDeepSeek-V3.2を上回っ、オントロジー構造と言語を効果的に融合したことを示す。
関連論文リスト
- Knowledge Graph-Infused Fine-Tuning for Structured Reasoning in Large Language Models [41.59092188743925]
知識グラフ注入に基づく微調整アルゴリズムフレームワークを提案する。
事前訓練された言語モデルに基づいて構築され、補助学習のための構造化グラフ情報を導入している。
構造的推論やエンティティ抽出を含むシナリオにおいて、セマンティック一貫性とコンテキスト論理モデリングがより優れていることを示す。
論文 参考訳(メタデータ) (2025-08-20T04:52:12Z) - OneEval: Benchmarking LLM Knowledge-intensive Reasoning over Diverse Knowledge Bases [38.58409057214189]
textbftextscOneEvalは、LLM(Large Language Models)の知識集約推論能力を評価するベンチマークである。
textscOneEvalは、慎重にキュレートされた4,019のインスタンスで構成され、特に難しいケースが1,285である、挑戦的なサブセットであるtextscOneEvaltextsubscriptHardを含んでいる。
我々は、構造化知識推論の継続的な進歩を促進するためのリーダーボードを伴って、textscOneEvalデータセット、評価スクリプト、ベースライン結果を公開した。
論文 参考訳(メタデータ) (2025-06-14T17:16:05Z) - Beyond Chunking: Discourse-Aware Hierarchical Retrieval for Long Document Question Answering [51.7493726399073]
本稿では,長文質問応答を改善するための対話型階層型フレームワークを提案する。
このフレームワークには3つの重要な革新がある: 長文の専門的な談話解析、LLMに基づく談話関係ノードの拡張、構造誘導階層検索である。
論文 参考訳(メタデータ) (2025-05-26T14:45:12Z) - A Graph Perspective to Probe Structural Patterns of Knowledge in Large Language Models [52.52824699861226]
大規模な言語モデルは、その知識アクセス、編集可能性、推論可能性、説明可能性のための神経知識基盤として広く研究されている。
我々は,LLMの知識を三重項レベルと実体レベルの両方で定量化し,ノード次数などのグラフ構造特性との関連性を分析する。
論文 参考訳(メタデータ) (2025-05-25T19:34:15Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Unifying Structure Reasoning and Language Model Pre-training for Complex
Reasoning [26.811507121199323]
本稿では,明示的な構造推論と言語事前学習を組み合わせ,PLMと構造推論のスキルを融合した統合学習フレームワークを提案する。
まず、コンテクスト内のいくつかの基本構造を識別し、構造化されたクエリを構築し、クエリに沿ってステップバイステップの推論を行い、回答エンティティを識別する。
4つのデータセットに対する実験結果から,提案モデルが多様構造を含む複雑な推論タスクにおいて,大幅な改善を達成できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T08:18:11Z) - Joint Language Semantic and Structure Embedding for Knowledge Graph
Completion [66.15933600765835]
本稿では,知識三重項の自然言語記述と構造情報とを共同で組み込むことを提案する。
本手法は,学習済み言語モデルを微調整することで,完了作業のための知識グラフを埋め込む。
各種知識グラフベンチマーク実験により,本手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2022-09-19T02:41:02Z) - A Knowledge-Enhanced Adversarial Model for Cross-lingual Structured
Sentiment Analysis [31.05169054736711]
言語間構造的感情分析タスクは、ソース言語からターゲット言語へ知識を伝達することを目的としている。
本稿では,暗黙的分散と明示的構造的知識を両立させた知識強化逆数モデル(textttKEAM)を提案する。
我々は5つのデータセットの実験を行い、textttKEAMと教師なしおよび教師なしの両方の手法を比較した。
論文 参考訳(メタデータ) (2022-05-31T03:07:51Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。