論文の概要: CHAINSFORMER: Numerical Reasoning on Knowledge Graphs from a Chain Perspective
- arxiv url: http://arxiv.org/abs/2504.14282v1
- Date: Sat, 19 Apr 2025 12:47:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 03:38:06.778426
- Title: CHAINSFORMER: Numerical Reasoning on Knowledge Graphs from a Chain Perspective
- Title(参考訳): CHAINSFORMER:チェーンから見た知識グラフの数値推論
- Authors: Ze Zhao, Bin Lu, Xiaoying Gan, Gu Tang, Luoyi Fu, Xinbing Wang,
- Abstract要約: 知識グラフに対する推論(KGs)は知識グラフ補完や質問応答システムにおいて重要な役割を果たす。
そこで我々はChainsFormerを提案する。ChainsFormerは数値推論をサポートするために設計された新しいチェーンベースのフレームワークである。
ChainsFormerは最先端の手法よりも優れており、最大20.0%の性能向上を実現している。
- 参考スコア(独自算出の注目度): 41.395990456819675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning over Knowledge Graphs (KGs) plays a pivotal role in knowledge graph completion or question answering systems, providing richer and more accurate triples and attributes. As numerical attributes become increasingly essential in characterizing entities and relations in KGs, the ability to reason over these attributes has gained significant importance. Existing graph-based methods such as Graph Neural Networks (GNNs) and Knowledge Graph Embeddings (KGEs), primarily focus on aggregating homogeneous local neighbors and implicitly embedding diverse triples. However, these approaches often fail to fully leverage the potential of logical paths within the graph, limiting their effectiveness in exploiting the reasoning process. To address these limitations, we propose ChainsFormer, a novel chain-based framework designed to support numerical reasoning. Chainsformer not only explicitly constructs logical chains but also expands the reasoning depth to multiple hops. Specially, we introduces Relation-Attribute Chains (RA-Chains), a specialized logic chain, to model sequential reasoning patterns. ChainsFormer captures the step-by-step nature of multi-hop reasoning along RA-Chains by employing sequential in-context learning. To mitigate the impact of noisy chains, we propose a hyperbolic affinity scoring mechanism that selects relevant logic chains in a variable-resolution space. Furthermore, ChainsFormer incorporates an attention-based numerical reasoner to identify critical reasoning paths, enhancing both reasoning accuracy and transparency. Experimental results demonstrate that ChainsFormer significantly outperforms state-of-the-art methods, achieving up to a 20.0% improvement in performance. The implementations are available at https://github.com/zhaodazhuang2333/ChainsFormer.
- Abstract(参考訳): 知識グラフに対する推論(KGs)は知識グラフの補完や質問応答システムにおいて重要な役割を果たす。
数値的な属性がKGの実体や関係を特徴づける上でますます不可欠になるにつれて、これらの属性を推論する能力は重要な意味を持つようになった。
グラフニューラルネットワーク (GNNs) や知識グラフ埋め込み (KGEs) といった既存のグラフベースの手法は、主に同質な近隣住民を集約し、多種多様を暗黙的に埋め込むことに重点を置いている。
しかしながら、これらのアプローチはグラフ内の論理パスのポテンシャルを完全に活用することができず、推論プロセスを利用する際の有効性を制限します。
これらの制約に対処するため、数値推論をサポートするために設計されたチェインベースの新しいフレームワークであるChainsFormerを提案する。
チェーンフォーマーは論理的連鎖を明示的に構成するだけでなく、推論深度を複数のホップに拡張する。
特に、逐次推論パターンをモデル化するために、特殊論理チェーンであるRelation-Attribute Chains (RA-Chains)を導入する。
ChainsFormerは、連続したコンテキスト内学習を利用することで、RA-Chainsに沿ったマルチホップ推論のステップバイステップの性質をキャプチャする。
雑音連鎖の影響を軽減するため,変数分解能空間における関係論理鎖を選択する双曲アフィニティスコアリング機構を提案する。
さらに、ChainsFormerには、注意に基づく数値推論器が組み込まれており、重要な推論経路を特定し、推論精度と透明性の両方を向上させる。
実験の結果、ChainsFormerは最先端のメソッドよりも大幅に優れ、パフォーマンスは最大20.0%向上した。
実装はhttps://github.com/zhaodazhuang2333/ChainsFormerで公開されている。
関連論文リスト
- Do Larger Language Models Imply Better Reasoning? A Pretraining Scaling Law for Reasoning [89.17086632436363]
本研究では,実世界の大規模知識グラフの構造と分布を再現する合成マルチホップ推論環境を提案する。
我々の推論タスクは、グラフの欠落したエッジを補完することであり、これは高度なマルチホップ推論を必要とし、現実世界の推論シナリオを模倣する。
特定の知識グラフに対して最適なモデルサイズを予測するために,知識グラフ探索エントロピーを最適モデルサイズに線形にマッピングする経験的スケーリングを求める。
論文 参考訳(メタデータ) (2025-04-04T17:57:22Z) - Causal Graphs Meet Thoughts: Enhancing Complex Reasoning in Graph-Augmented LLMs [4.701165676405066]
関連情報を検索するだけでなく、因果推論や説明可能性の提供も重要である。
本稿では,大きな知識グラフをフィルタして原因効果エッジを強調する新しいパイプラインを提案する。
医学的質問応答タスクの実験では、一貫した利得を示し、最大10%の絶対的な改善がある。
論文 参考訳(メタデータ) (2025-01-24T19:31:06Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Neural Probabilistic Logic Learning for Knowledge Graph Reasoning [10.473897846826956]
本稿では,知識グラフの正確な推論を実現するための推論フレームワークを設計することを目的とする。
本稿では,組込みネットワークの表現力を効果的に向上するスコアリングモジュールを提案する。
我々は,変分推論に基づくマルコフ論理ネットワークを組み込むことにより,モデルの解釈可能性を向上させる。
論文 参考訳(メタデータ) (2024-07-04T07:45:46Z) - Let Invariant Rationale Discovery Inspire Graph Contrastive Learning [98.10268114789775]
ハイパフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保存すべきである。
新たなフレームワーク Rationale-aware Graph Contrastive Learning (RGCL) を提案する。
RGCLは有理数生成器を使用して、グラフのインスタンス識別に関する健全な特徴を論理として明らかにし、対照的な学習のための有理数認識ビューを生成する。
論文 参考訳(メタデータ) (2022-06-16T01:28:40Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Exploiting Reasoning Chains for Multi-hop Science Question Answering [51.86289192292466]
我々のフレームワークは、コーパス固有のアノテーションを必要とせずに説明可能な推論を行うことができる。
ローカルチェーン情報とグローバルチェーン情報の両方に関するTextitChain対応の損失は、生成されたチェーンが遠隔監視信号として機能するようにも設計されている。
論文 参考訳(メタデータ) (2021-09-07T07:22:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。