論文の概要: Reasoning of Large Language Models over Knowledge Graphs with Super-Relations
- arxiv url: http://arxiv.org/abs/2503.22166v1
- Date: Fri, 28 Mar 2025 06:11:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 19:09:59.580858
- Title: Reasoning of Large Language Models over Knowledge Graphs with Super-Relations
- Title(参考訳): 超関係を持つ知識グラフによる大規模言語モデルの推論
- Authors: Song Wang, Junhong Lin, Xiaojie Guo, Julian Shun, Jundong Li, Yada Zhu,
- Abstract要約: 本稿では,ReKnoSフレームワークを提案する。
我々のフレームワークの主な利点は、スーパーリレーションを通して複数のリレーションパスを含めることである。
その結果、ReKnoSは既存の最先端ベースラインよりも優れた性能を示し、平均精度は2.92%向上した。
- 参考スコア(独自算出の注目度): 53.14275361052276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large language models (LLMs) have made significant progress in processing and reasoning over knowledge graphs, current methods suffer from a high non-retrieval rate. This limitation reduces the accuracy of answering questions based on these graphs. Our analysis reveals that the combination of greedy search and forward reasoning is a major contributor to this issue. To overcome these challenges, we introduce the concept of super-relations, which enables both forward and backward reasoning by summarizing and connecting various relational paths within the graph. This holistic approach not only expands the search space, but also significantly improves retrieval efficiency. In this paper, we propose the ReKnoS framework, which aims to Reason over Knowledge Graphs with Super-Relations. Our framework's key advantages include the inclusion of multiple relation paths through super-relations, enhanced forward and backward reasoning capabilities, and increased efficiency in querying LLMs. These enhancements collectively lead to a substantial improvement in the successful retrieval rate and overall reasoning performance. We conduct extensive experiments on nine real-world datasets to evaluate ReKnoS, and the results demonstrate the superior performance of ReKnoS over existing state-of-the-art baselines, with an average accuracy gain of 2.92%.
- Abstract(参考訳): 大規模言語モデル(LLM)は知識グラフの処理と推論において大きな進歩を遂げているが、現在の手法は非検索率が高い。
この制限により、これらのグラフに基づいて質問に答える精度が低下する。
分析の結果, 欲求検索と前向き推論の組み合わせが, この問題に大きく貢献していることが明らかとなった。
これらの課題を克服するために,グラフ内の様々な関係経路を要約して接続することにより,前方推論と後方推論の両立を可能にするスーパーリレーションの概念を導入する。
この全体論的アプローチは、検索空間を広げるだけでなく、検索効率を大幅に改善する。
本稿では,ReKnoSフレームワークを提案する。
我々のフレームワークの主な利点は、スーパーリレーションによる複数のリレーションパスの導入、前方および後方推論能力の向上、LLMのクエリ効率の向上である。
これらの拡張は総じて、検索率と全体的な推論性能を大幅に向上させる。
我々は、ReKnoSを評価するために、9つの実世界のデータセットに関する広範な実験を行い、その結果、ReKnoSが既存の最先端ベースラインよりも優れた性能を示し、平均精度は2.92%向上した。
関連論文リスト
- A Survey of Efficient Reasoning for Large Reasoning Models: Language, Multimodality, and Beyond [88.5807076505261]
大規模推論モデル (LRM) は, 推論中におけるチェーン・オブ・ソート (CoT) の推論長を拡大することにより, 高い性能向上を示した。
懸念が高まっているのは、過度に長い推論の痕跡を生み出す傾向にある。
この非効率性は、トレーニング、推論、現実のデプロイメントに重大な課題をもたらす。
論文 参考訳(メタデータ) (2025-03-27T15:36:30Z) - Fairness-Driven LLM-based Causal Discovery with Active Learning and Dynamic Scoring [1.5498930424110338]
因果発見(英: Causal discovery, CD)は、様々な分野において観測される現象の根底にある因果関係を明らかにすることで、多くの科学分野において重要な役割を担っている。
CDアルゴリズムの大幅な進歩にもかかわらず、その応用は大規模データの高い計算要求と複雑さのために困難に直面している。
本稿では,CDにLarge Language Models(LLM)を活用するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-21T22:58:26Z) - HuixiangDou2: A Robustly Optimized GraphRAG Approach [11.91228019623924]
グラフベースのRetrieval-Augmented Generation (GraphRAG)は、動的検索のためのグラフとして構造化することで、この問題に対処する。
堅牢に最適化されたGraphRAGフレームワークであるHixiangDou2を紹介する。
具体的には、二重レベル検索の有効性を活用し、32kコンテキストでその性能を最適化する。
論文 参考訳(メタデータ) (2025-03-09T06:20:24Z) - Graph-Augmented Reasoning: Evolving Step-by-Step Knowledge Graph Retrieval for LLM Reasoning [55.6623318085391]
最近の大規模言語モデル(LLM)推論は、限られたドメイン知識、幻覚への感受性、制約された推論深さに悩まされている。
本稿では、ステップワイズ知識グラフ検索とステップワイズ推論の統合に関する最初の研究について述べる。
本稿では,プロセス指向の知識グラフ構築を中心としたフレームワークであるKG-RAR,階層的検索戦略,検索後処理と報酬モデルを提案する。
論文 参考訳(メタデータ) (2025-03-03T15:20:41Z) - Causal Graphs Meet Thoughts: Enhancing Complex Reasoning in Graph-Augmented LLMs [4.701165676405066]
関連情報を検索するだけでなく、因果推論や説明可能性の提供も重要である。
本稿では,大きな知識グラフをフィルタして原因効果エッジを強調する新しいパイプラインを提案する。
医学的質問応答タスクの実験では、一貫した利得を示し、最大10%の絶対的な改善がある。
論文 参考訳(メタデータ) (2025-01-24T19:31:06Z) - An Empirical Analysis of Speech Self-Supervised Learning at Multiple Resolutions [0.3495246564946556]
我々は,CCA(Canonical correlation Analysis)とMI(Mutual Information)に着目し,マルチスケールアーキテクチャにおけるレイヤワイズ表現の初期解析を行う。
SuPERBタスクの性能改善は、主にダウンサンプリング自体よりも、補助的な低分解能損失によるものであることが判明した。
これらの知見はMR-HuBERTのマルチスケールな性質に関する仮定に挑戦し、より良い表現の学習から計算効率を遠ざけることの重要性を動機付けている。
論文 参考訳(メタデータ) (2024-10-31T14:09:05Z) - Unlocking the Capabilities of Thought: A Reasoning Boundary Framework to Quantify and Optimize Chain-of-Thought [61.588465852846646]
大型言語モデル(LLM)の性能向上のための有望なアプローチとして、Chain-of-Thought(CoT)推論が登場した。
本稿では,これらの課題に対処するための新しい推論境界フレームワーク(RBF)を提案する。
論文 参考訳(メタデータ) (2024-10-08T05:26:28Z) - Think-on-Graph 2.0: Deep and Faithful Large Language Model Reasoning with Knowledge-guided Retrieval Augmented Generation [14.448198170932226]
Think-on-Graph 2.0 (ToG-2) は、構造化されていない知識ソースと構造化されていない知識ソースの両方から情報を反復的に取得するハイブリッドRAGフレームワークである。
ToG-2は、グラフ検索とコンテキスト検索の交互に、質問に関連する詳細な手がかりを検索する。
GPT-3.5で7つの知識集約データセットのうち6つで、全体的なSOTA(State-of-the-art)のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T15:20:40Z) - Exploring & Exploiting High-Order Graph Structure for Sparse Knowledge
Graph Completion [20.45256490854869]
本稿では,エンティティ間の価値ある長距離依存性を自動的にキャプチャできる新しいフレームワークLR-GCNを提案する。
提案手法は、GNNベースの予測器と推論経路蒸留器の2つの主成分からなる。
論文 参考訳(メタデータ) (2023-06-29T15:35:34Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。