論文の概要: GRAD: Graph-Retrieved Adaptive Decoding for Hallucination Mitigation
- arxiv url: http://arxiv.org/abs/2511.03900v1
- Date: Wed, 05 Nov 2025 22:51:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.23316
- Title: GRAD: Graph-Retrieved Adaptive Decoding for Hallucination Mitigation
- Title(参考訳): GRAD: 幻覚除去のためのグラフ検索型適応デコーディング
- Authors: Manh Nguyen, Sunil Gupta, Dai Do, Hung Le,
- Abstract要約: コーパス由来の証拠を再学習せずに生成する復号時間法であるグラフ検索適応復号法(GRAD)を導入する。
3つのモデルと様々な質問応答ベンチマークで、GRADは一貫してベースラインを超えている。
GRADは、コントラストデコーディングやナレッジグラフの拡張に対して、軽量でプラグアンドプレイの代替手段を提供する。
- 参考スコア(独自算出の注目度): 12.69955054591315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hallucination mitigation remains a persistent challenge for large language models (LLMs), even as model scales grow. Existing approaches often rely on external knowledge sources, such as structured databases or knowledge graphs, accessed through prompting or retrieval. However, prompt-based grounding is fragile and domain-sensitive, while symbolic knowledge integration incurs heavy retrieval and formatting costs. Motivated by knowledge graphs, we introduce Graph-Retrieved Adaptive Decoding (GRAD), a decoding-time method that grounds generation in corpus-derived evidence without retraining. GRAD constructs a sparse token transition graph by accumulating next-token logits across a small retrieved corpus in a single forward pass. During decoding, graph-retrieved logits are max-normalized and adaptively fused with model logits to favor high-evidence continuations while preserving fluency. Across three models and a range of question-answering benchmarks spanning intrinsic, extrinsic hallucination, and factuality tasks, GRAD consistently surpasses baselines, achieving up to 9.7$\%$ higher intrinsic accuracy, 8.6$\%$ lower hallucination rates, and 6.9$\%$ greater correctness compared to greedy decoding, while attaining the highest truth--informativeness product score among all methods. GRAD offers a lightweight, plug-and-play alternative to contrastive decoding and knowledge graph augmentation, demonstrating that statistical evidence from corpus-level token transitions can effectively steer generation toward more truthful and verifiable outputs.
- Abstract(参考訳): 幻覚の緩和は、モデルスケールが拡大しても、大きな言語モデル(LLM)にとって永続的な課題である。
既存のアプローチは、しばしば、プロンプトや検索を通じてアクセスされる構造化データベースやナレッジグラフのような外部の知識ソースに依存する。
しかし、プロンプトベースの接地は脆弱でドメインに敏感であり、シンボリック知識の統合は大量の検索とフォーマットコストを発生させる。
知識グラフによってモチベーションを得たグラフ検索適応復号法(GRAD)を導入する。
GRADは、小さな取得されたコーパスを1つのフォワードパスでまたがって次のトーンロジットを蓄積することでスパーストークン遷移グラフを構築する。
復号化中、グラフ検索ロジットは最大正規化され、モデルロジットと適応的に融合され、流速を保ちながら高エビデンス継続が好まれる。
3つのモデルと、内在的、外在的幻覚、事実性タスクにまたがる様々な質問答えベンチマークにおいて、GRADは一貫してベースラインを超え、最高で9.7$\%$高い内在的精度、8.6$\%$低い幻覚率、6.9$$$$高い正当性を達成する。
GRADは、対照的な復号化や知識グラフの増大に代えて、軽量でプラグアンドプレイな代替手段を提供し、コーパスレベルのトークン遷移による統計的証拠が、より正確で検証可能な出力へと効果的に生成を推し進めることができることを実証している。
関連論文リスト
- Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [79.75818239774952]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - Causal Graphs Meet Thoughts: Enhancing Complex Reasoning in Graph-Augmented LLMs [4.701165676405066]
関連情報を検索するだけでなく、因果推論や説明可能性の提供も重要である。
本稿では,大きな知識グラフをフィルタして原因効果エッジを強調する新しいパイプラインを提案する。
医学的質問応答タスクの実験では、一貫した利得を示し、最大10%の絶対的な改善がある。
論文 参考訳(メタデータ) (2025-01-24T19:31:06Z) - ADA-GAD: Anomaly-Denoised Autoencoders for Graph Anomaly Detection [84.0718034981805]
我々はAnomaly-Denoized Autoencoders for Graph Anomaly Detection (ADA-GAD)という新しいフレームワークを導入する。
第1段階では,異常レベルを低減したグラフを生成する学習自由な異常化拡張法を設計する。
次の段階では、デコーダは元のグラフで検出するために再訓練される。
論文 参考訳(メタデータ) (2023-12-22T09:02:01Z) - FactGraph: Evaluating Factuality in Summarization with Semantic Graph
Representations [114.94628499698096]
文書と要約を構造化された意味表現(MR)に分解するFactGraphを提案する。
MRは、コアセマンティックの概念とその関係を記述し、文書と要約の両方の主要な内容を標準形式で集約し、データの疎結合を減少させる。
事実性を評価するための異なるベンチマークの実験では、FactGraphは以前のアプローチよりも最大15%優れていた。
論文 参考訳(メタデータ) (2022-04-13T16:45:33Z) - SimGRACE: A Simple Framework for Graph Contrastive Learning without Data
Augmentation [33.748691759568004]
我々は、下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下線下
元のグラフを入力とし、摂動バージョンを持つGNNモデルを2つのエンコーダとして、コントラストに対する2つの相関ビューを得る。
SimGRACEは、一般化可能性、転送可能性、堅牢性の観点から、最先端の手法と比較して、競争力や性能が向上する。
論文 参考訳(メタデータ) (2022-02-07T12:33:14Z) - My Body is a Cage: the Role of Morphology in Graph-Based Incompatible
Control [65.77164390203396]
本稿では,グラフにエンコードされた形態情報により,その性能が向上しないことを示す既存手法に関する一連のアブリケーションを示す。
グラフ構造からGNNが抽出した利益は、メッセージパッシングのために生じる困難によって上回っているという仮説により、Amorpheusも提案する。
論文 参考訳(メタデータ) (2020-10-05T08:37:11Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。