論文の概要: Follow My Lead: Logical Fallacy Classification with Knowledge-Augmented LLMs
- arxiv url: http://arxiv.org/abs/2510.09970v1
- Date: Sat, 11 Oct 2025 03:02:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.716576
- Title: Follow My Lead: Logical Fallacy Classification with Knowledge-Augmented LLMs
- Title(参考訳): Follow My Lead:Knowled-Augmented LLMsを用いた論理的誤り分類
- Authors: Olivia Peiyu Wang, Tashvi Bansal, Ryan Bai, Emily M. Chui, Leilani H. Gilpin,
- Abstract要約: 大規模言語モデル(LLM)は、重大な推論のギャップに悩まされる。
この制限はデフォルトのSystem 1処理に起因しており、高速で直感的である。
このギャップを埋めるために、低コストで命令ベースの介入を検討します。
- 参考スコア(独自算出の注目度): 2.3488056916440856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) suffer from critical reasoning gaps, including a tendency to hallucinate and poor accuracy in classifying logical fallacies. This limitation stems from their default System 1 processing, which is fast and intuitive, whereas reliable reasoning requires the deliberate, effortful System 2 approach (Kahneman, 2011; Li et al., 2025). Since full System 2 training is often prohibitively expensive, we explore a low-cost, instruction-based intervention to bridge this gap. Our methodology introduces a novel stepwise instruction dataset that decomposes fallacy classification into a series of atomic procedural steps (simple binary questions). We further augment this with a final verification step where models consult a relational knowledge graph of related fallacies. This procedural, rule-based intervention yields a significant improvement in LLM logical fallacy classification. Crucially, the approach also provides enhanced transparency into the LLMs' decision-making, highlighting a practical pathway for Neuro-symbolic architectures to address LLM reasoning deficits.
- Abstract(参考訳): 大規模言語モデル(LLM)は、論理的誤りの分類において幻覚と精度の低い傾向を含む重要な推論ギャップに悩まされる。
この制限はデフォルトのSystem 1処理に起因しており、高速で直感的だが、信頼性の高い推論では意図的なSystem 2アプローチを必要とする(Kahneman, 2011; Li et al , 2025)。
System 2のフルトレーニングは、しばしば違法に高価であるため、このギャップを埋めるために、低コストで命令ベースの介入を探索する。
提案手法では, 誤り分類を一連の原子手続きステップ(二分問題)に分解する, ステップワイズ・インストラクション・データセットを提案する。
さらに、モデルが関連する不正確な関係知識グラフを参照する最終検証ステップでこれを拡張します。
この手続き的な規則に基づく介入は、LLM論理的誤り分類において顕著な改善をもたらす。
重要な点として、このアプローチはLLMの意思決定に透明性を高め、LLMの推論障害に対処するための神経シンボルアーキテクチャの実践的な経路を強調している。
関連論文リスト
- Stepwise Informativeness Search for Efficient and Effective LLM Reasoning [49.85349030928302]
最近の研究によると、Large Language Models (LLM) は長いコンテキストの途中で焦点を失う傾向にある。
より正確かつ簡潔なステップ・バイ・ステップの合理性を生成するために, LLM を導くことを提案する。
論文 参考訳(メタデータ) (2025-02-21T09:39:27Z) - System-2 Mathematical Reasoning via Enriched Instruction Tuning [13.672967091915181]
Enriched Instruction Tuning (EIT) は、人間とAIのフィードバックを相乗化することによって、既存の人間の注釈付き数学的データセットを充実させる手法である。
EITはGSM8Kで84.1%、MATHで32.5%の精度を達成し、最先端の微調整およびプロンプト法を超越している。
論文 参考訳(メタデータ) (2024-12-22T10:49:27Z) - Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。