論文の概要: Argument Reconstruction as Supervision for Critical Thinking in LLMs
- arxiv url: http://arxiv.org/abs/2603.17432v1
- Date: Wed, 18 Mar 2026 07:17:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.561985
- Title: Argument Reconstruction as Supervision for Critical Thinking in LLMs
- Title(参考訳): LLMにおける批判的思考の前提としてのArgument Restruction
- Authors: Hyun Ryu, Gyouk Chu, Gregor Betz, Eunho Yang, Carolyn Rose, Sean Welleck,
- Abstract要約: 任意の引数(GAAR)を自動的に再構成するエンジンを提案する。
GAARエンジンを用いて、新しい高品質な引数再構成データセット(Arguinas)を合成する。
実験結果から,7つの批判的思考課題において,議論再構成学習のためのモデルが,そうでないモデルよりも優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 47.26477494850773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To think critically about arguments, human learners are trained to identify, reconstruct, and evaluate arguments. Argument reconstruction is especially important because it makes an argument's underlying inferences explicit. However, it remains unclear whether LLMs can similarly enhance their critical thinking ability by learning to reconstruct arguments. To address this question, we introduce a holistic framework with three contributions. We (1) propose an engine that automatically reconstructs arbitrary arguments (GAAR), (2) synthesize a new high-quality argument reconstruction dataset (Arguinas) using the GAAR engine, and (3) investigate whether learning argument reconstruction benefits downstream critical thinking tasks. Our experimental results show that, across seven critical thinking tasks, models trained to learn argument reconstruction outperform models that do not, with the largest performance gains observed when training on the proposed Arguinas dataset. The source code and dataset will be publicly available.
- Abstract(参考訳): 議論を批判的に考えるためには、人間の学習者は議論を特定し、再構築し、評価するように訓練される。
議論の根底にある推論を明確にするため、論証再構成は特に重要である。
しかし,LLMが議論を再構築することを学ぶことで,批判的思考能力を高めることができるかどうかは不明である。
この問題に対処するために,3つのコントリビューションを伴う総合的な枠組みを導入する。
1)任意の引数を自動的に再構成するエンジンを提案し,(2)GAARエンジンを用いて新しい高品質な引数再構成データセット(Arguinas)を合成し,(3)下流の批判的思考課題に学習引数再構成が有効かどうかを検討する。
実験結果から,提案したArguinasデータセット上での学習において,提案した7つの批判的思考課題において,議論再構成を学習するために訓練されたモデルは,学習しないモデルよりも優れており,最大の性能向上が見られた。
ソースコードとデータセットが公開されている。
関連論文リスト
- Structured Reasoning for Large Language Models [59.215789462977206]
本研究では、推論を明示的、評価可能、トレーニング可能なコンポーネントに分解するフレームワークであるStructured Reasoning(SCR)を提案する。
SCRは推論効率と自己検証を大幅に改善する。
既存の推論パラダイムと比較して、出力トークンの長さを最大50%削減する。
論文 参考訳(メタデータ) (2026-01-12T04:04:01Z) - Stop Overthinking: A Survey on Efficient Reasoning for Large Language Models [49.61246073215651]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な機能を示した。
OpenAI o1とDeepSeek-R1の最近の進歩は、System-2推論ドメインのパフォーマンスをさらに改善した。
しかし、冗長な出力と冗長な出力による計算オーバーヘッドも大幅に発生する。
論文 参考訳(メタデータ) (2025-03-20T17:59:38Z) - DeepRAG: Thinking to Retrieve Step by Step for Large Language Models [92.87532210660456]
我々はマルコフ決定過程(MDP)として検索強化推論をモデル化するDeepRAGを提案する。
クエリを反復的に分解することで、DeepRAGは外部知識を取得するか、あるいは各ステップでパラメトリック推論に依存するかを動的に決定する。
実験の結果,DeepRAGは検索効率を向上し,回答精度を26.4%向上させ,検索強化推論の有効性を示した。
論文 参考訳(メタデータ) (2025-02-03T08:22:45Z) - ConQRet: Benchmarking Fine-Grained Evaluation of Retrieval Augmented Argumentation with LLM Judges [23.179246872272362]
今日の分極環境では、計算的議論がますます重要になっている。
そこで本研究では,現実世界のWebサイトを基盤とした,議論されたトピックに関する,長く複雑な人間による議論を特徴とする新しいベンチマークを提案する。
提案した LLM Judges と ConQRet ベンチマークは,計算議論の急速な進展を可能にする。
論文 参考訳(メタデータ) (2024-12-06T17:35:52Z) - RL-STaR: Theoretical Analysis of Reinforcement Learning Frameworks for Self-Taught Reasoner [2.5903660653548366]
自己学習推論器(STaR)は強化学習を用いて推論ステップを自動生成する。
STaRとその変種は経験的成功を示しているが、これらの改善を説明する理論的基盤は欠如している。
この研究は、CoT推論とSTaRにおける強化学習の有効性を理解するための理論的枠組みを提供する。
論文 参考訳(メタデータ) (2024-10-31T13:17:53Z) - Contextualizing Argument Quality Assessment with Relevant Knowledge [11.367297319588411]
SPARKは、関連する知識による文脈化に基づく議論品質を評価するための新しい手法である。
我々は、大きな言語モデルを利用してフィードバックを提供したり、隠れた仮定を推測したり、同様の品質の議論を提供したり、あるいは反論をしたりする4つの拡張を考案する。
論文 参考訳(メタデータ) (2023-05-20T21:04:58Z) - Critical Thinking for Language Models [6.963299759354333]
本稿では,ニューラル自動回帰言語モデルの批判的思考カリキュラムに向けて第一歩を踏み出す。
我々は、GPT-2を訓練し、評価するために、人工的な議論文を生成する。
NLUベンチマークに対して一貫した有望な結果が得られる。
論文 参考訳(メタデータ) (2020-09-15T15:49:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。