論文の概要: Evo-DKD: Dual-Knowledge Decoding for Autonomous Ontology Evolution in Large Language Models
- arxiv url: http://arxiv.org/abs/2507.21438v1
- Date: Tue, 29 Jul 2025 02:18:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.552424
- Title: Evo-DKD: Dual-Knowledge Decoding for Autonomous Ontology Evolution in Large Language Models
- Title(参考訳): Evo-DKD:大規模言語モデルにおける自律オントロジー進化のためのデュアル知識復号法
- Authors: Vishal Raman, Vijai Aravindh R,
- Abstract要約: 大規模言語モデル(LLM)は、膨大な構造化されていない知識を持っているが、構造化された一貫性を維持するのに苦労している。
自律型オントロジー進化のための新しいデュアルデコーダフレームワークであるEvo-DKDを提案する。
動的注意に基づくゲーティング機構は、2つのストリームを協調させ、構造化された知識と非構造化された知識をブレンドする方法を各ステップで決定する。
- 参考スコア(独自算出の注目度): 0.18416014644193066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ontologies and knowledge graphs require continuous evolution to remain comprehensive and accurate, but manual curation is labor intensive. Large Language Models (LLMs) possess vast unstructured knowledge but struggle with maintaining structured consistency. We propose Evo-DKD, a novel dual-decoder framework for autonomous ontology evolution that combines structured ontology traversal with unstructured text reasoning. Evo-DKD introduces two parallel decoding streams within an LLM: one decoder generates candidate ontology edits (e.g., new concepts or relations) while the other produces natural-language justifications. A dynamic attention-based gating mechanism coordinates the two streams, deciding at each step how to blend structured and unstructured knowledge. Due to GPU constraints, we simulate the dual-decoder behavior using prompt-based mode control to approximate coordinated decoding in a single-stream mode. The system operates in a closed reasoning loop: proposed ontology edits are validated (via consistency checks and cross-verification with the text explanations) and then injected into the knowledge base, which in turn informs subsequent reasoning. We demonstrate Evo-DKD's effectiveness on use cases including healthcare ontology refinement, semantic search improvement, and cultural heritage timeline modeling. Experiments show that Evo-DKD outperforms baselines using structured-only or unstructured-only decoding in both precision of ontology updates and downstream task performance. We present quantitative metrics and qualitative examples, confirming the contributions of the dual-decoder design and gating router. Evo-DKD offers a new paradigm for LLM-driven knowledge base maintenance, combining the strengths of symbolic and neural reasoning for sustainable ontology evolution.
- Abstract(参考訳): オントロジと知識グラフは包括的かつ正確性を維持するために継続的な進化を必要とするが、手作業によるキュレーションは労働集約的である。
大規模言語モデル(LLM)は、膨大な構造化されていない知識を持っているが、構造化された一貫性を維持するのに苦労している。
本稿では,構造化オントロジーと非構造化テキスト推論を組み合わせた,自律的オントロジー進化のための新しいデュアルデコーダフレームワークであるEvo-DKDを提案する。
Evo-DKDはLLM内に2つの並列デコードストリームを導入している。一方のデコーダは候補オントロジー編集(例えば、新しい概念や関係)を生成し、もう一方のデコーダは自然言語の正当化を生成する。
動的注意に基づくゲーティング機構は、2つのストリームを協調させ、構造化された知識と非構造化された知識をブレンドする方法を各ステップで決定する。
GPUの制約により、プロンプトベースのモード制御を用いてデュアルデコーダの動作をシミュレートし、一ストリームモードでコーディネートデコーダを近似する。
このシステムは、クローズドな推論ループで動作し、提案されたオントロジーの編集が検証され(一貫性チェックとテキスト説明との相互検証)、その後、知識ベースに注入され、その後の推論が通知される。
Evo-DKDの有効性を,医療オントロジーの洗練,セマンティック検索の改善,文化遺産の時系列モデリングなどのユースケースで実証する。
実験により、Evo-DKDはオントロジー更新の精度とダウンストリームタスク性能の両方において、構造化オントロジーまたは非構造化オントリアルデコーディングを使用してベースラインを性能良くすることが示された。
本稿では,2次元デコーダの設計とゲーティングルータの寄与を確認し,定量的な測定値と定性的な例を示す。
Evo-DKDは、LLM駆動の知識ベースメンテナンスのための新しいパラダイムを提供し、持続可能なオントロジー進化のための象徴的推論と神経的推論の強みを組み合わせた。
関連論文リスト
- Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - Integrating Dynamical Systems Learning with Foundational Models: A Meta-Evolutionary AI Framework for Clinical Trials [0.0]
NetraAIは、小さな臨床試験データセットの安定性と解釈性のために設計されたシステムベースのフレームワークである。
我々はNetraAIの基礎を定式化し、収縮マッピング、情報幾何学、進化的アルゴリズムを組み合わせて予測的患者コホートを同定する。
信頼できる説明可能な知識を優先することによって、NetraAIは、臨床発見を加速するために、適応的で自己反射的なAIの新しい世代を提供する。
論文 参考訳(メタデータ) (2025-05-25T03:34:33Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Bidirectional Trained Tree-Structured Decoder for Handwritten
Mathematical Expression Recognition [51.66383337087724]
Handwriting Mathematical Expression Recognition (HMER) タスクは、OCRの分野における重要な分岐である。
近年の研究では、双方向コンテキスト情報の導入により、HMERモデルの性能が大幅に向上することが示されている。
本稿では,MF-SLT と双方向非同期トレーニング (BAT) 構造を提案する。
論文 参考訳(メタデータ) (2023-12-31T09:24:21Z) - EvoPrompting: Language Models for Code-Level Neural Architecture Search [21.759268833999627]
進化的ニューラルアーキテクチャ探索アルゴリズムにおける適応突然変異とクロスオーバー演算子としての言語モデル(LM)の利用について検討する。
EvoPromptingと呼ばれる手法であるソフトプロンプトチューニングと進化的プロンプトエンジニアリングの組み合わせは、常に多様かつ高性能なモデルを見つける。
論文 参考訳(メタデータ) (2023-02-28T18:37:25Z) - elBERto: Self-supervised Commonsense Learning for Question Answering [131.51059870970616]
本稿では、市販QAモデルアーキテクチャと互換性のあるコモンセンスフレームワークの自己教師型双方向表現学習を提案する。
このフレームワークは5つの自己教師型タスクから構成されており、リッチコモンセンスを含むコンテキストから追加のトレーニング信号を完全に活用するようモデルに強制する。
elBERtoは、単純な語彙的類似性比較が役に立たないような、アウト・オブ・パラグラフや非エフェクトな問題に対して、大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-17T16:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。