論文の概要: Graph of Verification: Structured Verification of LLM Reasoning with Directed Acyclic Graphs
- arxiv url: http://arxiv.org/abs/2506.12509v2
- Date: Sun, 03 Aug 2025 06:41:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 14:07:57.171991
- Title: Graph of Verification: Structured Verification of LLM Reasoning with Directed Acyclic Graphs
- Title(参考訳): 検証グラフ:直進非巡回グラフを用いたLLM推論の構造的検証
- Authors: Jiwei Fang, Bin Zhang, Changwei Wang, Jin Wan, Zhiwei Xu,
- Abstract要約: Graph of Verification (GoV)は、適応性と多粒性検証のための新しいフレームワークである。
GoVのコアイノベーションは、柔軟性のある"ノードブロック"アーキテクチャである。
GoVの適応的アプローチは、全体論的ベースラインと他の最先端の分解ベース手法の両方を著しく上回っている。
- 参考スコア(独自算出の注目度): 8.833716779340358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Verifying the complex and multi-step reasoning of Large Language Models (LLMs) is a critical challenge, as holistic methods often overlook localized flaws. Step-by-step validation is a promising alternative, yet existing methods are often rigid. They struggle to adapt to diverse reasoning structures, from formal proofs to informal natural language narratives. To address this adaptability gap, we propose the Graph of Verification (GoV), a novel framework for adaptable and multi-granular verification. GoV's core innovation is its flexible "node block" architecture. This mechanism allows GoV to adaptively adjust its verification granularity--from atomic steps for formal tasks to entire paragraphs for natural language--to match the native structure of the reasoning process. This flexibility allows GoV to resolve the fundamental trade-off between verification precision and robustness. Experiments on both well-structured and loosely-structured benchmarks demonstrate GoV's versatility. The results show that GoV's adaptive approach significantly outperforms both holistic baselines and other state-of-the-art decomposition-based methods, establishing a new standard for training-free reasoning verification.
- Abstract(参考訳): 大規模言語モデル(LLM)の複雑で多段階的な推論を検証することは、局所的な欠陥をしばしば見落としているため、重要な課題である。
ステップバイステップの検証は有望な代替手段だが、既存のメソッドはしばしば厳格である。
彼らは、形式的な証明から非公式な自然言語の物語まで、多様な推論構造に適応するのに苦労している。
この適応性ギャップに対処するため,適応性と多粒性検証のための新しいフレームワークであるGraph of Verification (GoV)を提案する。
GoVのコアイノベーションは、柔軟性のある"ノードブロック"アーキテクチャである。
このメカニズムにより、GoVはその検証の粒度を、形式的なタスクの原子ステップから自然言語のパラグラフ全体へ適応的に調整し、推論プロセスのネイティブ構造と一致させることができる。
この柔軟性により、GoVは検証精度と堅牢性の間の基本的なトレードオフを解決することができる。
十分に構造化されたベンチマークとゆるく構造化されたベンチマークの実験は、GoVの汎用性を示している。
その結果、GoVの適応的アプローチは、総合的ベースラインとその他の最先端分解に基づく手法の両方を著しく上回り、トレーニング不要な推論検証のための新しい標準を確立した。
関連論文リスト
- AURORA: Augmented Understanding via Structured Reasoning and Reinforcement Learning for Reference Audio-Visual Segmentation [113.75682363364004]
AURORAは、参照音声視覚セグメント化における真の推論と言語理解を強化するために設計されたフレームワークである。
AURORAはRef-AVSベンチマークの最先端性能を達成し、非参照セグメンテーションに効果的に一般化する。
論文 参考訳(メタデータ) (2025-08-04T07:47:38Z) - Arg-LLaDA: Argument Summarization via Large Language Diffusion Models and Sufficiency-Aware Refinement [14.24815847815289]
本稿では,要約を反復的に改善する新しい大規模言語拡散フレームワークArg-LLaDAを紹介する。
本手法では,フレキシブルマスキングコントローラと十分チェックモジュールを組み合わせることで,サポート対象,冗長,あるいは不完全なスパンを特定し,修正する。
2つのベンチマークデータセットの実証結果は、Arg-LLaDAが10の自動評価指標のうち7の最先端のベースラインを超えたことを示している。
論文 参考訳(メタデータ) (2025-07-25T09:07:52Z) - Beyond the Linear Separability Ceiling [2.867517731896504]
最先端のVisual-Language Models (VLM) は、抽象的推論タスクへの視覚埋め込みの線形分離によって制限されているように見える。
本研究は,Linar Separability Ceiling (LSC)を導入して,この「線形推論ボトルネック」について検討する。
このボトルネックは広く、認識力の低さからではなく、言語モデルの推論経路の失敗から来ています。
論文 参考訳(メタデータ) (2025-07-10T09:23:32Z) - Enhancing Spatial Reasoning in Vision-Language Models via Chain-of-Thought Prompting and Reinforcement Learning [0.42855555838080844]
本研究では,視覚言語モデル(VLM)の空間的推論能力について,Chain-of-Thoughtプロンプトと強化学習を通して検討した。
モデルが解答の前に推論ステップを生成する単純なCoT形式は、モデルの本来の性能を損なう可能性がある。
対照的に、シーングラフ(SceneGraph CoT)に基づく構造化マルチステージプロンプトは空間推論の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2025-07-06T10:51:12Z) - Fractional Reasoning via Latent Steering Vectors Improves Inference Time Compute [57.16286134405821]
本稿では,推論時の推論強度を連続的に制御するフレームワークであるフラクショナル推論を提案する。
提案手法は, より深い推論を伴う潜在ステアリングベクトルを抽出し, 調整可能なスケーリング係数で再適用することによって機能する。
GSM8K、MATH500、GPQAの実験により、フラクショナル推論は様々な推論タスクやモデルのパフォーマンスを一貫して改善することを示した。
論文 参考訳(メタデータ) (2025-06-18T21:15:59Z) - Graph-KV: Breaking Sequence via Injecting Structural Biases into Large Language Models [63.64507678113921]
構造的帰納バイアスを通して相互作用を管理するグラフ-KVを導入する。
このフレームワークでは、「ターゲット」セグメントは指定された「ソース」セグメントのKV-cacheのみに選択的に参加する。
我々は,(1)直接推論,マルチホップ推論,長期文書理解にまたがる7つのRAGベンチマーク,(2)引用エゴグラフとして構造化された全文科学論文を用いた新しい学術論文QAタスクArxiv-QA,(3)引用ネットワーク内の論文トピック分類の3つのシナリオでグラフ-KVを評価する。
論文 参考訳(メタデータ) (2025-06-09T00:30:08Z) - Verify-in-the-Graph: Entity Disambiguation Enhancement for Complex Claim Verification with Interactive Graph Representation [3.864321514889099]
グラフ表現 - 入力クレームは構造化三重項に分解され、構造化情報と非構造化情報の両方を統合するグラフベースの表現を形成する。
論文 参考訳(メタデータ) (2025-05-29T02:02:55Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [75.9865035064794]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - Prompt-OT: An Optimal Transport Regularization Paradigm for Knowledge Preservation in Vision-Language Model Adaptation [5.296260279593993]
CLIPのような視覚言語モデル(VLM)は、強力なパフォーマンスを示すが、下流タスクに適応する際には苦労する。
本稿では,特徴分布の構造的整合性を保つことにより,忘れを軽減できる最適トランスポート(OT)誘導型プロンプト学習フレームワークを提案する。
提案手法は,視覚とテキスト表現の両面に制約を課し,全体的な特徴の整合性を確保する。
論文 参考訳(メタデータ) (2025-03-11T21:38:34Z) - A Graph-based Verification Framework for Fact-Checking [25.875698681028794]
ファクトチェックのためのグラフベースのフレームワークGraphFCを提案する。
この中核的な考え方に基づいて,ファクトチェックのためのグラフベースのフレームワークであるGraphFCを提案する。
論文 参考訳(メタデータ) (2025-03-10T13:02:29Z) - GraphCheck: Multi-Path Fact-Checking with Entity-Relationship Graphs [5.10832476049103]
GraphCheckは、クレームを構造化および体系的な検証のためにエンティティ関連グラフに変換するフレームワークである。
DP-GraphCheckは、ダイレクトプロンプトとGraphCheckを適応的に選択するために軽量戦略セレクタを使用する変種である。
提案手法は既存の手法,特にマルチホップクレームよりも優れている。
論文 参考訳(メタデータ) (2025-02-28T07:06:19Z) - Beyond Message Passing: Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフサブストラクチャから直接学習することで,メッセージパッシングをバイパスする新しいフレームワークであるNeural Graph Pattern Machine(GPM)を紹介する。
GPMはタスク関連グラフパターンを効率的に抽出し、エンコードし、優先順位付けする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - Fine-Grained Verifiers: Preference Modeling as Next-token Prediction in Vision-Language Alignment [57.0121616203175]
本研究では,視覚言語アライメントを改善するための細粒度検証器として,モデル自身のビジュアルエンコーダを利用する新たな自己アライメント手法であるFiSAOを提案する。
ビジョンエンコーダからのトークンレベルのフィードバックを活用することで、FiSAOは視覚言語アライメントを大幅に改善する。
論文 参考訳(メタデータ) (2024-10-18T03:34:32Z) - InstructAV: Instruction Fine-tuning Large Language Models for Authorship Verification [9.151489275560413]
本稿では,著者確認のための新しいアプローチであるInstructAVを紹介する。
このアプローチでは,パラメータ効率の細かいチューニング(PEFT)手法と併用して,精度と説明可能性の向上を図る。
論文 参考訳(メタデータ) (2024-07-16T16:27:01Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部の動作や推論メカニズムを理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがCFG定義階層を正確に学習し、推論し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application [49.66088514485446]
ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
論文 参考訳(メタデータ) (2022-05-20T12:42:41Z) - FactGraph: Evaluating Factuality in Summarization with Semantic Graph
Representations [114.94628499698096]
文書と要約を構造化された意味表現(MR)に分解するFactGraphを提案する。
MRは、コアセマンティックの概念とその関係を記述し、文書と要約の両方の主要な内容を標準形式で集約し、データの疎結合を減少させる。
事実性を評価するための異なるベンチマークの実験では、FactGraphは以前のアプローチよりも最大15%優れていた。
論文 参考訳(メタデータ) (2022-04-13T16:45:33Z) - Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow [83.27681781274406]
一般化されたゼロショット学習は、意味的記述から視覚的表現へ知識を移すことによって、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用して、目に見えないクラスの視覚的特徴を生成する。
GZSLのための条件付き生成フロー,すなわちVAE-Conditioned Generative Flow (VAE-cFlow)を提案する。
論文 参考訳(メタデータ) (2020-09-01T09:12:31Z) - Alleviating the Inconsistency Problem of Applying Graph Neural Network
to Fraud Detection [78.88163190021798]
不整合問題に対処するために、新しいGNNフレームワークである$mathsfGraphConsis$を導入します。
4つのデータセットの実証分析は、不正検出タスクにおいて不整合の問題が不可欠であることを示唆している。
我々はまた、SOTAモデルを実装したGNNベースの不正検出ツールボックスもリリースした。
論文 参考訳(メタデータ) (2020-05-01T21:43:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。