論文の概要: ARGORA: Orchestrated Argumentation for Causally Grounded LLM Reasoning and Decision Making
- arxiv url: http://arxiv.org/abs/2601.21533v1
- Date: Thu, 29 Jan 2026 10:48:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.746571
- Title: ARGORA: Orchestrated Argumentation for Causally Grounded LLM Reasoning and Decision Making
- Title(参考訳): ALGORA:仮設LLM推論・意思決定のための編成調停
- Authors: Youngjin Jin, Hanna Kim, Kwanwoo Kim, Chanhee Lee, Seungwon Shin,
- Abstract要約: 本稿では,多専門家による議論を明示的な議論グラフにまとめるフレームワークARGORAを紹介する。
ARGORAは個々の議論を排除し、結果を再計算し、どの推論チェーンが必要かを特定する。
さらに,内的推論と外的判断を一致させる補正機構を導入する。
- 参考スコア(独自算出の注目度): 11.531465685641086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing multi-expert LLM systems gather diverse perspectives but combine them through simple aggregation, obscuring which arguments drove the final decision. We introduce ARGORA, a framework that organizes multi-expert discussions into explicit argumentation graphs showing which arguments support or attack each other. By casting these graphs as causal models, ARGORA can systematically remove individual arguments and recompute outcomes, identifying which reasoning chains were necessary and whether decisions would change under targeted modifications. We further introduce a correction mechanism that aligns internal reasoning with external judgments when they disagree. Across diverse benchmarks and an open-ended use case, ARGORA achieves competitive accuracy and demonstrates corrective behavior: when experts initially disagree, the framework resolves disputes toward correct answers more often than it introduces new errors, while providing causal diagnostics of decisive arguments.
- Abstract(参考訳): 既存のマルチエキスパートLLMシステムは、様々な視点を収集するが、それらを単純な集約を通じて組み合わせ、どの議論が最終決定を導いたかを見極める。
我々は,複数の専門家による議論を明示的な議論グラフにまとめるフレームワークであるARGORAを紹介した。
これらのグラフを因果モデルとしてキャストすることで、ARGORAは個別の議論を体系的に取り除き、結果を再計算し、どの推論チェーンが必要なのか、ターゲットとなる修正の下で決定が変更されるかどうかを特定できる。
さらに,内的推論と外的判断を一致させる補正機構を導入する。
さまざまなベンチマークとオープンエンドのユースケースを通じて、ARGORAは競争の正確さを達成し、修正行動を示す。 専門家が最初に同意しなかった場合、このフレームワークは、新しいエラーを導入するよりも、正しい回答に対する論争を頻繁に解決すると同時に、決定的な議論の因果診断を提供する。
関連論文リスト
- CoT-Seg: Rethinking Segmentation with Chain-of-Thought Reasoning and Self-Correction [50.67483317563736]
本稿では,段階的に考察し,必要な情報を検索し,結果を生成し,自己評価を行い,結果を洗練するシステムを提案する。
CoT-Segは、思考の連鎖推論と自己補正を組み合わせることで、推論セグメンテーションを再考する、トレーニング不要のフレームワークである。
論文 参考訳(メタデータ) (2026-01-24T11:41:54Z) - ART: Adaptive Reasoning Trees for Explainable Claim Verification [11.001890567834094]
ART(Adaptive Reasoning Trees)は、クレーム検証のための階層的手法である。
議論の強さは、子供のペアトーナメントを通じてボトムアップを決定する。
ARTの構造的推論は,強いベースラインよりも優れていた。
論文 参考訳(メタデータ) (2026-01-09T01:01:55Z) - Adversarial Yet Cooperative: Multi-Perspective Reasoning in Retrieved-Augmented Language Models [72.4149653187766]
本稿ではAdrialversa Reasoning RAG(ARR)というReasoner-Verifierフレームワークを提案する。
ReasonerとVerifierは、回収された証拠を推論し、プロセス認識の利点によってガイドされながら、互いの論理を批判する。
複数のベンチマーク実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2026-01-08T06:57:03Z) - ArgRAG: Explainable Retrieval Augmented Generation using Quantitative Bipolar Argumentation [37.816652871790474]
我々は、ブラックボックス推論を構造化推論に置き換える、説明可能な、競合可能な代替案であるArgRAGを提案する。
ArgRAGは取得した文書からQBAFを構築し、段階的意味論の下で決定論的推論を行う。
論文 参考訳(メタデータ) (2025-08-26T13:54:51Z) - LAG: Logic-Augmented Generation from a Cartesian Perspective [7.2022636966543745]
本稿では,体系的な問題分解と依存性を考慮した推論を通じて知識強化を再構築する新しいパラダイムである論理拡張生成(LAG)を紹介する。
4つのベンチマークデータセットの実験では、LAGは推論の堅牢性を大幅に向上し、幻覚を減少させ、LLM問題の解決を人間の認知と整合させることが示されている。
論文 参考訳(メタデータ) (2025-08-07T15:42:00Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Aggregation of Reasoning: A Hierarchical Framework for Enhancing Answer Selection in Large Language Models [84.15513004135576]
最近の研究は、複数の推論チェーンをサンプリングし、応答周波数に基づいてアンサンブルすることで、Large Language Models(LLMs)の推論性能を向上させる。
このアプローチは、正しい答えが少数派である場合に失敗する。
階層的推論集約フレームワークAoRを導入し、推論連鎖の評価に基づいて回答を選択する。
論文 参考訳(メタデータ) (2024-05-21T17:12:19Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。