論文の概要: Doc2AHP: Inferring Structured Multi-Criteria Decision Models via Semantic Trees with LLMs
- arxiv url: http://arxiv.org/abs/2601.16479v1
- Date: Fri, 23 Jan 2026 06:20:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.566973
- Title: Doc2AHP: Inferring Structured Multi-Criteria Decision Models via Semantic Trees with LLMs
- Title(参考訳): Doc2AHP:LLMを用いた意味木を用いた構造的多点決定モデルの提案
- Authors: Hongjia Wu, Shuai Zhou, Hongxin Zhang, Wei Chen,
- Abstract要約: AHPの原理を導いた新しい構造推論フレームワークDoc2AHPを提案する。
重み付けの数値的整合性を確保するために,多エージェント重み付け機構と適応整合性最適化戦略を導入する。
実験の結果,Doc2AHPは非熟練ユーザに対して,スクラッチから高品質な意思決定モデルを構築する権限を与えるだけでなく,論理的完全性とダウンストリームタスク精度の両方において,直接生成ベースラインを著しく上回ることを示した。
- 参考スコア(独自算出の注目度): 7.026862437055361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Large Language Models (LLMs) demonstrate remarkable proficiency in semantic understanding, they often struggle to ensure structural consistency and reasoning reliability in complex decision-making tasks that demand rigorous logic. Although classical decision theories, such as the Analytic Hierarchy Process (AHP), offer systematic rational frameworks, their construction relies heavily on labor-intensive domain expertise, creating an "expert bottleneck" that hinders scalability in general scenarios. To bridge the gap between the generalization capabilities of LLMs and the rigor of decision theory, we propose Doc2AHP, a novel structured inference framework guided by AHP principles. Eliminating the need for extensive annotated data or manual intervention, our approach leverages the structural principles of AHP as constraints to direct the LLM in a constrained search within the unstructured document space, thereby enforcing the logical entailment between parent and child nodes. Furthermore, we introduce a multi-agent weighting mechanism coupled with an adaptive consistency optimization strategy to ensure the numerical consistency of weight allocation. Empirical results demonstrate that Doc2AHP not only empowers non-expert users to construct high-quality decision models from scratch but also significantly outperforms direct generative baselines in both logical completeness and downstream task accuracy.
- Abstract(参考訳): 大規模言語モデル(LLM)は意味理解において顕著な習熟度を示すが、厳密な論理を必要とする複雑な意思決定タスクにおいて、構造的な一貫性と信頼性の確保に苦慮することが多い。
AHP(Analytic Hierarchy Process)のような古典的な決定理論は、体系的な合理的な枠組みを提供するが、その構成は労働集約的なドメインの専門知識に大きく依存しており、一般的なシナリオにおけるスケーラビリティを妨げる「専門的ボトルネック」を生み出している。
本稿では, LLMの一般化能力と決定理論の厳密さのギャップを埋めるために, AHPの原理に導かれる新しい構造的推論フレームワークDoc2AHPを提案する。
提案手法では,アノテートデータや手動介入の必要性を排除し,AHPの構造原理を制約として活用し,非構造化文書空間内の制約付き検索においてLLMを指示し,親ノードと子ノード間の論理的関係を強制する。
さらに,重み付けの数値的整合性を確保するために,適応的整合性最適化戦略と組み合わせたマルチエージェント重み付け機構を導入する。
実験の結果,Doc2AHPは非熟練ユーザに対して,スクラッチから高品質な意思決定モデルを構築する権限を与えるだけでなく,論理的完全性とダウンストリームタスク精度の両方において,直接生成ベースラインを著しく上回ることを示した。
関連論文リスト
- Deep Unfolding: Recent Developments, Theory, and Design Guidelines [99.63555420898554]
この記事では、最適化アルゴリズムを構造化されたトレーニング可能なMLアーキテクチャに変換するフレームワークであるDeep Unfoldingのチュートリアルスタイルの概要を提供する。
推論と学習のための最適化の基礎を概観し、深層展開のための4つの代表的な設計パラダイムを導入し、その反復的な性質から生じる特有なトレーニングスキームについて議論する。
論文 参考訳(メタデータ) (2025-12-03T13:16:35Z) - Structure-R1: Dynamically Leveraging Structural Knowledge in LLM Reasoning through Reinforcement Learning [29.722512436773638]
本稿では,検索したコンテンツを推論に最適化した構造化表現に変換するフレームワークであるtextscStructure-R1を提案する。
textscStructure-R1は、7Bスケールのバックボーンモデルとの競合性能を一貫して達成していることを示す。
我々の理論的分析は,情報密度と文脈的明瞭度を向上させることによって,構造化表現が推論をいかに促進するかを示す。
論文 参考訳(メタデータ) (2025-10-16T23:19:28Z) - Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models [57.42778606399764]
拡散言語モデル(dLLM)は、テキスト生成に有望で非自己回帰的なパラダイムを提供する。
現在の強化学習アプローチは、しばしばスパースで結果に基づく報酬に頼っている。
これは推論の自然な構造との根本的なミスマッチに由来すると我々は主張する。
論文 参考訳(メタデータ) (2025-10-02T00:34:15Z) - Do LLMs Dream of Discrete Algorithms? [0.7646713951724011]
大規模言語モデル(LLM)は、人工知能の風景を急速に変化させてきた。
確率的推論への依存は、厳密な論理的推論を必要とする領域における有効性を制限する。
本稿では,論理ベースの推論モジュールでLLMを増強するニューロシンボリックアプローチを提案する。
論文 参考訳(メタデータ) (2025-06-29T22:03:01Z) - Enhancing Large Language Models through Structured Reasoning [15.472375478049823]
本稿では,Large Language Models (LLM) を明示的構造化推論により拡張する新しい手法を提案する。
まず、非構造化データを明示的に推論ステップをアノテートすることで構造化形式に変換する。
次に、この構造化データセットを使用して、監視ファインチューニング(SFT)を通してLLMをトレーニングする。
論文 参考訳(メタデータ) (2025-06-25T08:36:12Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Proof of Thought : Neurosymbolic Program Synthesis allows Robust and Interpretable Reasoning [1.3003982724617653]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、一貫性のない推論に苦戦している。
本研究では,LLM出力の信頼性と透明性を高めるフレームワークであるProof of Thoughtを紹介する。
主な貢献は、論理的整合性を高めるためのソート管理を備えた堅牢な型システム、事実的知識と推論的知識を明確に区別するための規則の明示である。
論文 参考訳(メタデータ) (2024-09-25T18:35:45Z) - A Principled Framework for Knowledge-enhanced Large Language Model [58.1536118111993]
大規模言語モデル(LLM)は汎用性があるが、深い信頼性のある推論を必要とするタスクに悩まされることが多い。
本稿では、知識を効果的に固定し、閉ループ推論プロセスを用いるLLMを作成するための厳密な設計のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-18T18:10:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。