論文の概要: Knowledge Fusion via Bidirectional Information Aggregation
- arxiv url: http://arxiv.org/abs/2507.08704v2
- Date: Tue, 14 Oct 2025 14:35:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 16:45:44.377602
- Title: Knowledge Fusion via Bidirectional Information Aggregation
- Title(参考訳): 双方向情報集約による知識融合
- Authors: Songlin Zhai, Guilin Qi, Yue Wang, Yuan Meng,
- Abstract要約: 知識グラフ(KG)はセマンティックウェブの基盤であり、現実世界の実体と関係の最新の表現を提供する。
大規模言語モデル(LLM)は、事前トレーニング後にほとんど静的のままであり、内部知識は時代遅れになり、時間に敏感なWebアプリケーションでは実用性が制限される。
我々は,外部KGをパラメータ修正なしに,推論時にのみ外部KGをLLMに動的に統合する新しいフレームワークKGAを紹介する。
- 参考スコア(独自算出の注目度): 20.309309990375134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graphs (KGs) are the cornerstone of the semantic web, offering up-to-date representations of real-world entities and relations. Yet large language models (LLMs) remain largely static after pre-training, causing their internal knowledge to become outdated and limiting their utility in time-sensitive web applications. To bridge this gap between dynamic knowledge and static models, a prevalent approach is to enhance LLMs with KGs. However, prevailing methods typically rely on parameter-invasive fine-tuning, which risks catastrophic forgetting and often degrades LLMs' general capabilities. Moreover, their static integration frameworks cannot keep pace with the continuous evolution of real-world KGs, hindering their deployment in dynamic web environments. To bridge this gap, we introduce KGA (\textit{\underline{K}nowledge \underline{G}raph-guided \underline{A}ttention}), a novel framework that dynamically integrates external KGs into LLMs exclusively at inference-time without any parameter modification. Inspired by research on neuroscience, we rewire the self-attention module by innovatively introducing two synergistic pathways: a \textit{bottom-up knowledge fusion} pathway and a \textit{top-down attention guidance} pathway. The \textit{bottom-up pathway} dynamically integrates external knowledge into input representations via input-driven KG fusion, which is akin to the \textit{stimulus-driven attention process} in the human brain. Complementarily, the \textit{top-down pathway} aims to assess the contextual relevance of each triple through a \textit{goal-directed verification process}, thereby suppressing task-irrelevant signals and amplifying knowledge-relevant patterns. By synergistically combining these two pathways, our method supports real-time knowledge fusion. Extensive experiments on four benchmarks verify KGA's strong fusion performance and efficiency.
- Abstract(参考訳): 知識グラフ(KG)はセマンティックウェブの基盤であり、現実世界の実体と関係の最新の表現を提供する。
しかし、大きな言語モデル(LLM)は、事前トレーニング後にほとんど静的のままであり、内部知識は時代遅れになり、時間に敏感なWebアプリケーションでは実用性が制限される。
動的知識と静的モデルの間のこのギャップを埋めるために、一般的なアプローチは、KGでLLMを強化することである。
しかし、一般的な手法は一般にパラメータ侵襲的な微調整に依存しており、これは破滅的な忘れ込みを危険にさらし、しばしばLLMの一般的な能力を低下させる。
さらに、彼らの静的統合フレームワークは、現実世界のKGの継続的な進化に追随することができず、動的なWeb環境へのデプロイを妨げる。
このギャップを埋めるために、パラメータ修正なしに外部KGを推論時にのみLLMに動的に統合する新しいフレームワークであるKGA(\textit{\underline{K}nowledge \underline{G}raph-guided \underline{A}ttention})を導入する。
神経科学の研究に触発されて、我々は2つの相乗的経路、すなわち \textit{bottom-up knowledge fusion} 経路と \textit{top-down attention guidance} 経路を革新的に導入することで自己注意モジュールを再構成した。
\textit{bottom-up pathway} は、人間の脳における \textit{stimulus-driven attention process} に似た入力駆動KG融合を通じて、外部知識を入力表現に動的に統合する。
補足的に、‘textit{top-down pathway’は、‘textit{goal-directed verification process} を通じて、各トリプルの文脈的関連性を評価することを目的としており、タスク非関連信号の抑制と知識関連パターンの増幅を目的としている。
これら2つの経路を相乗的に組み合わせることで,本手法はリアルタイム知識融合を支援する。
4つのベンチマークでの大規模な実験は、KGAの強い核融合性能と効率を検証する。
関連論文リスト
- DynaPURLS: Dynamic Refinement of Part-aware Representations for Skeleton-based Zero-Shot Action Recognition [51.80782323686666]
textbfDynaPURLSは、堅牢でマルチスケールなビジュアル・セマンティック対応を確立する統一的なフレームワークである。
我々のフレームワークは、グローバルな動きと局所的な身体部分のダイナミクスの両方を含む階層的なテキスト記述を生成するために、大きな言語モデルを活用する。
NTU RGB+D 60/120とPKU-MMDを含む3つの大規模ベンチマークデータセットの実験は、DynaPURLSが先行技術よりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2025-12-12T10:39:10Z) - Interaction-Centric Knowledge Infusion and Transfer for Open-Vocabulary Scene Graph Generation [20.867572814544836]
オープン語彙シーングラフ生成(OVSGG)は、新しいオブジェクトを認識し、予め定義された関係カテゴリを超えて従来のSGGを拡張する。
我々は、これらのミスマッチを最小限に抑えるために、インタラクション駆動のパラダイムでtextbfACtion-textbfCentric end-to-end OVSGG framework(textbfACC)を提案する。
論文 参考訳(メタデータ) (2025-11-08T08:59:09Z) - DeLeaker: Dynamic Inference-Time Reweighting For Semantic Leakage Mitigation in Text-to-Image Models [55.30555646945055]
テキスト・ツー・イメージ(T2I)モデルはセマンティック・リークに対して脆弱である。
DeLeakerは、モデルのアテンションマップに直接介入することで、漏洩を緩和する軽量なアプローチである。
SLIMはセマンティックリークに特化した最初のデータセットである。
論文 参考訳(メタデータ) (2025-10-16T17:39:21Z) - EReLiFM: Evidential Reliability-Aware Residual Flow Meta-Learning for Open-Set Domain Generalization under Noisy Labels [85.78886153628663]
Open-Set Domain Generalizationは、ディープラーニングモデルが新しいドメインで目に見えないカテゴリを認識できるようにすることを目的としている。
ラベルノイズは、ソースドメインの知識を損なうことによって、オープンセットドメインの一般化を妨げる。
本稿では,ドメインギャップを埋めるために,Evidential Reliability-Aware Residual Flow Meta-Learning (EReLiFM)を提案する。
論文 参考訳(メタデータ) (2025-10-14T16:23:11Z) - TAWRMAC: A Novel Dynamic Graph Representation Learning Method [1.7230595437884768]
TAWRMACは、時間匿名ウォークスをリスタート、メモリ拡張、Neighbor共起埋め込みと統合する新しいフレームワークである。
TAWRMACは安定で、一般化可能で、コンテキスト対応の埋め込みを提供することで、連続時間動的グラフ学習における技術の状態を前進させる。
論文 参考訳(メタデータ) (2025-10-10T21:38:07Z) - Agentic-KGR: Co-evolutionary Knowledge Graph Construction through Multi-Agent Reinforcement Learning [6.665920297143511]
Agentic-KGRは、大規模言語モデル(LLM)と知識グラフ(KG)の共進化を可能にする新しいフレームワークである。
提案手法では,(1)事前定義された境界を超えてグラフを体系的に拡張する動的スキーマ拡張機構,(2)連続最適化によるモデルパラメータと知識構造間の相乗的共進化を可能にする検索強化メモリシステム,(3)適応シーケンス最適化による計算複雑性を低減しつつ,重要な情報を保存する学習可能なマルチスケールプロンプト圧縮手法を提案する。
論文 参考訳(メタデータ) (2025-10-10T09:00:07Z) - Improving Factuality in LLMs via Inference-Time Knowledge Graph Construction [30.381290814338413]
大規模言語モデル(LLM)は、パラメトリックメモリに制限があるため、現実的に一貫した答えを生み出すのにしばしば苦労する。
推論中に知識グラフ(KG)を動的に構築・拡張する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-31T16:36:40Z) - NEARL-CLIP: Interacted Query Adaptation with Orthogonal Regularization for Medical Vision-Language Understanding [51.63264715941068]
textbfNEARL-CLIP (iunderlineNteracted quunderlineEry underlineAdaptation with ounderlineRthogonaunderlineL regularization)は、VLMベースの新しい相互モダリティ相互作用フレームワークである。
論文 参考訳(メタデータ) (2025-08-06T05:44:01Z) - Towards Improving Long-Tail Entity Predictions in Temporal Knowledge Graphs through Global Similarity and Weighted Sampling [53.11315884128402]
時間知識グラフ(TKG)補完モデルは、伝統的にトレーニング中にグラフ全体へのアクセスを前提としている。
本稿では,TKGに特化して設計されたインクリメンタルトレーニングフレームワークを提案する。
提案手法は,モデルに依存しない拡張層と加重サンプリング戦略を組み合わせることで,既存のTKG補完手法を拡張および改善することができる。
論文 参考訳(メタデータ) (2025-07-25T06:02:48Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - KG-Infused RAG: Augmenting Corpus-Based RAG with External Knowledge Graphs [66.35046942874737]
KG-Infused RAGは、拡散活性化を実装するためにKGをRAGシステムに統合するフレームワークである。
KG-Infused RAGはKGの事実を検索し、クエリを拡張し、コーパスと構造化された事実を組み合わせることで生成を強化する。
論文 参考訳(メタデータ) (2025-06-11T09:20:02Z) - Reinforced Interactive Continual Learning via Real-time Noisy Human Feedback [59.768119380109084]
本稿では,AIモデルがリアルタイムフィードバックから新たなスキルを動的に学習する対話型連続学習パラダイムを提案する。
大規模言語モデル(LLM)を活用した強化型対話型連続学習フレームワークRiCLを提案する。
我々のRiCLアプローチは、最先端のオンライン連続学習とノイズラベル学習の既存の組み合わせを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-15T03:22:03Z) - Question-Aware Knowledge Graph Prompting for Enhancing Large Language Models [51.47994645529258]
本稿では,問合せをGNNアグリゲーションに組み込んでKG関連性を動的に評価するQAP(QA-Aware Knowledge Graph Prompting)を提案する。
実験の結果、QAPは複数のデータセットで最先端の手法よりも優れており、その有効性を強調している。
論文 参考訳(メタデータ) (2025-03-30T17:09:11Z) - Recurrent Knowledge Identification and Fusion for Language Model Continual Learning [41.901501650712234]
Recurrent-KIF は Recurrent Knowledge Identification and Fusion のためのCLフレームワークである。
人間の連続学習にインスパイアされたRecurrent-KIFは、内部ループを使用し、新しいタスクに迅速に適応する。
新しい知識と歴史的知識の融合を世界規模で管理する外ループ。
論文 参考訳(メタデータ) (2025-02-22T05:37:27Z) - ADKGD: Anomaly Detection in Knowledge Graphs with Dual-Channel Training [38.3788247358102]
本稿では、二重チャネル学習(ADKGD)を用いた知識グラフにおける異常検出アルゴリズムを提案する。
両チャネル間のスコアリング関数の精度を向上させるために,KL(Kullback-leibler)-loss成分を導入する。
実験の結果,ADKGDは最先端の異常検出アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2025-01-13T06:22:52Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Heterogeneous Hypergraph Embedding for Recommendation Systems [45.49449132970778]
知識強化ヘテロジニアスハイパーグラフレコメンダシステム(KHGRec)について紹介する。
KHGRecは、相互作用ネットワークとKGの両方のグループワイド特性を捉え、KGの複雑な接続をモデル化する。
入力グラフからの信号を、クロスビューで自己教師付き学習とアテンションメカニズムで融合する。
論文 参考訳(メタデータ) (2024-07-04T06:09:11Z) - Link-Intensive Alignment for Incomplete Knowledge Graphs [28.213397255810936]
本研究では,不完全KGと表現学習の整合性の問題に対処する。
我々のフレームワークは、推移性に基づく2つの特徴チャネルと近接性に基づく2つの特徴チャネルを利用する。
2つの特徴チャネルは、入力KG間で重要な特徴を交換するために共同で学習される。
また,学習過程中に欠落したリンクを検出し,回復するリンク検出装置も開発した。
論文 参考訳(メタデータ) (2021-12-17T00:41:28Z) - Towards Robust Knowledge Graph Embedding via Multi-task Reinforcement
Learning [44.38215560989223]
既存の知識グラフ埋め込み法の多くは、KGの3つの事実はすべて正しいと仮定する。
これはKGの低品質かつ信頼性の低い表現につながる。
本稿では,ノイズの多いデータ問題を大幅に軽減できる汎用マルチタスク強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-11T08:51:37Z) - Learning Intents behind Interactions with Knowledge Graph for
Recommendation [93.08709357435991]
知識グラフ(KG)は、推薦システムにおいてますます重要な役割を果たす。
既存のGNNベースのモデルは、きめ細かいインテントレベルでのユーザ項目関係の特定に失敗します。
本稿では,新しいモデルである知識グラフベースインテントネットワーク(kgin)を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:21:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。