論文の概要: Knowledge Fusion via Bidirectional Information Aggregation
- arxiv url: http://arxiv.org/abs/2507.08704v2
- Date: Tue, 14 Oct 2025 14:35:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 16:45:44.377602
- Title: Knowledge Fusion via Bidirectional Information Aggregation
- Title(参考訳): 双方向情報集約による知識融合
- Authors: Songlin Zhai, Guilin Qi, Yue Wang, Yuan Meng,
- Abstract要約: 知識グラフ(KG)はセマンティックウェブの基盤であり、現実世界の実体と関係の最新の表現を提供する。
大規模言語モデル(LLM)は、事前トレーニング後にほとんど静的のままであり、内部知識は時代遅れになり、時間に敏感なWebアプリケーションでは実用性が制限される。
我々は,外部KGをパラメータ修正なしに,推論時にのみ外部KGをLLMに動的に統合する新しいフレームワークKGAを紹介する。
- 参考スコア(独自算出の注目度): 20.309309990375134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graphs (KGs) are the cornerstone of the semantic web, offering up-to-date representations of real-world entities and relations. Yet large language models (LLMs) remain largely static after pre-training, causing their internal knowledge to become outdated and limiting their utility in time-sensitive web applications. To bridge this gap between dynamic knowledge and static models, a prevalent approach is to enhance LLMs with KGs. However, prevailing methods typically rely on parameter-invasive fine-tuning, which risks catastrophic forgetting and often degrades LLMs' general capabilities. Moreover, their static integration frameworks cannot keep pace with the continuous evolution of real-world KGs, hindering their deployment in dynamic web environments. To bridge this gap, we introduce KGA (\textit{\underline{K}nowledge \underline{G}raph-guided \underline{A}ttention}), a novel framework that dynamically integrates external KGs into LLMs exclusively at inference-time without any parameter modification. Inspired by research on neuroscience, we rewire the self-attention module by innovatively introducing two synergistic pathways: a \textit{bottom-up knowledge fusion} pathway and a \textit{top-down attention guidance} pathway. The \textit{bottom-up pathway} dynamically integrates external knowledge into input representations via input-driven KG fusion, which is akin to the \textit{stimulus-driven attention process} in the human brain. Complementarily, the \textit{top-down pathway} aims to assess the contextual relevance of each triple through a \textit{goal-directed verification process}, thereby suppressing task-irrelevant signals and amplifying knowledge-relevant patterns. By synergistically combining these two pathways, our method supports real-time knowledge fusion. Extensive experiments on four benchmarks verify KGA's strong fusion performance and efficiency.
- Abstract(参考訳): 知識グラフ(KG)はセマンティックウェブの基盤であり、現実世界の実体と関係の最新の表現を提供する。
しかし、大きな言語モデル(LLM)は、事前トレーニング後にほとんど静的のままであり、内部知識は時代遅れになり、時間に敏感なWebアプリケーションでは実用性が制限される。
動的知識と静的モデルの間のこのギャップを埋めるために、一般的なアプローチは、KGでLLMを強化することである。
しかし、一般的な手法は一般にパラメータ侵襲的な微調整に依存しており、これは破滅的な忘れ込みを危険にさらし、しばしばLLMの一般的な能力を低下させる。
さらに、彼らの静的統合フレームワークは、現実世界のKGの継続的な進化に追随することができず、動的なWeb環境へのデプロイを妨げる。
このギャップを埋めるために、パラメータ修正なしに外部KGを推論時にのみLLMに動的に統合する新しいフレームワークであるKGA(\textit{\underline{K}nowledge \underline{G}raph-guided \underline{A}ttention})を導入する。
神経科学の研究に触発されて、我々は2つの相乗的経路、すなわち \textit{bottom-up knowledge fusion} 経路と \textit{top-down attention guidance} 経路を革新的に導入することで自己注意モジュールを再構成した。
\textit{bottom-up pathway} は、人間の脳における \textit{stimulus-driven attention process} に似た入力駆動KG融合を通じて、外部知識を入力表現に動的に統合する。
補足的に、‘textit{top-down pathway’は、‘textit{goal-directed verification process} を通じて、各トリプルの文脈的関連性を評価することを目的としており、タスク非関連信号の抑制と知識関連パターンの増幅を目的としている。
これら2つの経路を相乗的に組み合わせることで,本手法はリアルタイム知識融合を支援する。
4つのベンチマークでの大規模な実験は、KGAの強い核融合性能と効率を検証する。
関連論文リスト
- Towards Improving Long-Tail Entity Predictions in Temporal Knowledge Graphs through Global Similarity and Weighted Sampling [53.11315884128402]
時間知識グラフ(TKG)補完モデルは、伝統的にトレーニング中にグラフ全体へのアクセスを前提としている。
本稿では,TKGに特化して設計されたインクリメンタルトレーニングフレームワークを提案する。
提案手法は,モデルに依存しない拡張層と加重サンプリング戦略を組み合わせることで,既存のTKG補完手法を拡張および改善することができる。
論文 参考訳(メタデータ) (2025-07-25T06:02:48Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - KG-Infused RAG: Augmenting Corpus-Based RAG with External Knowledge Graphs [66.35046942874737]
KG-Infused RAGは、拡散活性化を実装するためにKGをRAGシステムに統合するフレームワークである。
KG-Infused RAGはKGの事実を検索し、クエリを拡張し、コーパスと構造化された事実を組み合わせることで生成を強化する。
論文 参考訳(メタデータ) (2025-06-11T09:20:02Z) - Question-Aware Knowledge Graph Prompting for Enhancing Large Language Models [51.47994645529258]
本稿では,問合せをGNNアグリゲーションに組み込んでKG関連性を動的に評価するQAP(QA-Aware Knowledge Graph Prompting)を提案する。
実験の結果、QAPは複数のデータセットで最先端の手法よりも優れており、その有効性を強調している。
論文 参考訳(メタデータ) (2025-03-30T17:09:11Z) - ADKGD: Anomaly Detection in Knowledge Graphs with Dual-Channel Training [38.3788247358102]
本稿では、二重チャネル学習(ADKGD)を用いた知識グラフにおける異常検出アルゴリズムを提案する。
両チャネル間のスコアリング関数の精度を向上させるために,KL(Kullback-leibler)-loss成分を導入する。
実験の結果,ADKGDは最先端の異常検出アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2025-01-13T06:22:52Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Heterogeneous Hypergraph Embedding for Recommendation Systems [45.49449132970778]
知識強化ヘテロジニアスハイパーグラフレコメンダシステム(KHGRec)について紹介する。
KHGRecは、相互作用ネットワークとKGの両方のグループワイド特性を捉え、KGの複雑な接続をモデル化する。
入力グラフからの信号を、クロスビューで自己教師付き学習とアテンションメカニズムで融合する。
論文 参考訳(メタデータ) (2024-07-04T06:09:11Z) - Link-Intensive Alignment for Incomplete Knowledge Graphs [28.213397255810936]
本研究では,不完全KGと表現学習の整合性の問題に対処する。
我々のフレームワークは、推移性に基づく2つの特徴チャネルと近接性に基づく2つの特徴チャネルを利用する。
2つの特徴チャネルは、入力KG間で重要な特徴を交換するために共同で学習される。
また,学習過程中に欠落したリンクを検出し,回復するリンク検出装置も開発した。
論文 参考訳(メタデータ) (2021-12-17T00:41:28Z) - Towards Robust Knowledge Graph Embedding via Multi-task Reinforcement
Learning [44.38215560989223]
既存の知識グラフ埋め込み法の多くは、KGの3つの事実はすべて正しいと仮定する。
これはKGの低品質かつ信頼性の低い表現につながる。
本稿では,ノイズの多いデータ問題を大幅に軽減できる汎用マルチタスク強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-11T08:51:37Z) - Learning Intents behind Interactions with Knowledge Graph for
Recommendation [93.08709357435991]
知識グラフ(KG)は、推薦システムにおいてますます重要な役割を果たす。
既存のGNNベースのモデルは、きめ細かいインテントレベルでのユーザ項目関係の特定に失敗します。
本稿では,新しいモデルである知識グラフベースインテントネットワーク(kgin)を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:21:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。