論文の概要: ART: Adaptive Reasoning Trees for Explainable Claim Verification
- arxiv url: http://arxiv.org/abs/2601.05455v1
- Date: Fri, 09 Jan 2026 01:01:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.802257
- Title: ART: Adaptive Reasoning Trees for Explainable Claim Verification
- Title(参考訳): ART: 説明可能なクレーム検証のための適応型推論ツリー
- Authors: Sahil Wadhwa, Himanshu Kumar, Guanqun Yang, Abbaas Alif Mohamed Nishar, Pranab Mohanty, Swapnil Shinde, Yue Wu,
- Abstract要約: ART(Adaptive Reasoning Trees)は、クレーム検証のための階層的手法である。
議論の強さは、子供のペアトーナメントを通じてボトムアップを決定する。
ARTの構造的推論は,強いベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 11.001890567834094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are powerful candidates for complex decision-making, leveraging vast encoded knowledge and remarkable zero-shot abilities. However, their adoption in high-stakes environments is hindered by their opacity; their outputs lack faithful explanations and cannot be effectively contested to correct errors, undermining trustworthiness. In this paper, we propose ART (Adaptive Reasoning Trees), a hierarchical method for claim verification. The process begins with a root claim, which branches into supporting and attacking child arguments. An argument's strength is determined bottom-up via a pairwise tournament of its children, adjudicated by a judge LLM, allowing a final, transparent and contestable verdict to be systematically derived which is missing in methods like Chain-of-Thought (CoT). We empirically validate ART on multiple datasets, analyzing different argument generators and comparison strategies. Our findings show that ART's structured reasoning outperforms strong baselines, establishing a new benchmark for explainable claim verification which is more reliable and ensures clarity in the overall decision making step.
- Abstract(参考訳): 大規模言語モデル(LLM)は複雑な意思決定のための強力な候補であり、膨大な符号化された知識と目覚ましいゼロショット能力を活用する。
しかし、彼らの高評価環境への導入は、その不透明さによって妨げられ、そのアウトプットには忠実な説明がなく、誤りを正すために効果的に競合することはできず、信頼性を損なう。
本稿では,クレーム検証のための階層的手法ART(Adaptive Reasoning Trees)を提案する。
プロセスはルートクレームから始まり、子引数をサポートし攻撃する。
議論の強さは、子供同士のペアトーナメントを通じてボトムアップで決定され、裁判官 LLM が判断し、最終的かつ透明で競争可能な評決を体系的に導出することを可能にし、これはChain-of-Thought (CoT) のような方法に欠けている。
複数のデータセット上でARTを実証的に検証し、異なる引数生成器と比較戦略を解析する。
その結果,ARTの構造的推論は高いベースラインを上回り,より信頼性が高く,全体的な意思決定ステップの明確性を保証する,説明可能なクレーム検証のための新たなベンチマークを確立した。
関連論文リスト
- Reinforced Efficient Reasoning via Semantically Diverse Exploration [73.41112984160992]
検証可能な報酬(RLVR)による強化学習は,大規模言語モデル(LLM)の推論の強化に有効であることが証明された。
本研究では,LLMのための意味的多様性探索,すなわちROSEによる効率的な推論手法を提案する。
本手法は,意味エントロピーに基づく分岐戦略と$varepsilon$-exploration機構を組み込んだものである。
論文 参考訳(メタデータ) (2026-01-08T15:56:44Z) - ARCHE: A Novel Task to Evaluate LLMs on Latent Reasoning Chain Extraction [70.53044880892196]
本稿では、複雑な推論引数を標準推論パラダイムの組み合わせに分解し、Reasoning Logic Tree (RLT) という形で分解しなければならない、ARCHE(Latent Reasoning Chain extract)という新しいタスクを紹介する。
この作業を容易にするために,我々は,1,900以上の参照と38,000の視点を含む70のNature Communicationsの記事から得られた新しいベンチマークであるARCHE Benchをリリースする。
ARCHE Bench上での10のLLMの評価では、モデルがREAとECのトレードオフを示しており、完全な標準推論チェーンを抽出することはできません。
論文 参考訳(メタデータ) (2025-11-16T07:37:09Z) - ArgRAG: Explainable Retrieval Augmented Generation using Quantitative Bipolar Argumentation [37.816652871790474]
我々は、ブラックボックス推論を構造化推論に置き換える、説明可能な、競合可能な代替案であるArgRAGを提案する。
ArgRAGは取得した文書からQBAFを構築し、段階的意味論の下で決定論的推論を行う。
論文 参考訳(メタデータ) (2025-08-26T13:54:51Z) - CLATTER: Comprehensive Entailment Reasoning for Hallucination Detection [60.98964268961243]
我々は,系統的かつ包括的な推論プロセスを実行するためのモデルを導くことで,モデルがよりきめ細やかで正確な絞り込み決定を実行できることを提案する。
我々は,(i)クレームの分解,(ii)サブクレームの属性と包含分類,および(iii)集約分類から成る3段階の推論プロセスを定義し,そのような導出推論が実際に幻覚検出の改善をもたらすことを示す。
論文 参考訳(メタデータ) (2025-06-05T17:02:52Z) - CRAVE: A Conflicting Reasoning Approach for Explainable Claim Verification Using LLMs [15.170312674645535]
CRAVE は、説明可能なクレーム VErification に対する Conflicting Reasoning Approach である。
大規模な言語モデルによって推論される矛盾する理性に基づいて、複雑なクレームを検証することができる。
CRAVEは最先端の手法よりもはるかに優れた性能を実現している。
論文 参考訳(メタデータ) (2025-04-21T07:20:31Z) - Reasoning Court: Combining Reasoning, Action, and Judgment for Multi-Hop Reasoning [17.829990749622496]
Reasoning Court(RC)は、ReActのような反復的推論と検索の手法を拡張した新しいフレームワークである。
RCはタスク固有の微調整なしで、最先端のショットプロンプト手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-04-14T00:56:08Z) - Efficient Inference for Large Reasoning Models: A Survey [74.17203483365171]
LRM(Large Reasoning Models)は、Large Language Models(LLM)の推論能力を大幅に向上させる。
しかし、それらの熟考的推論プロセスはトークンの使用、メモリ消費、推論時間に非効率をもたらす。
本調査では, LRMに特化して設計された効率的な推論手法を概説し, 推論品質を維持しつつトークンの非効率を緩和することに着目した。
論文 参考訳(メタデータ) (2025-03-29T13:27:46Z) - Argumentative Large Language Models for Explainable and Contestable Claim Verification [13.045050015831903]
本稿では,議論的推論を用いた大規模言語モデルの拡張手法であるArgLLMsを紹介する。
ArgLLMsは議論フレームワークを構築し、意思決定を支援するための公式な推論の基礎となる。
我々はArgLLMsの性能を最先端技術と比較して実験的に評価した。
論文 参考訳(メタデータ) (2024-05-03T13:12:28Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。