論文の概要: Abductive Reasoning with Syllogistic Forms in Large Language Models
- arxiv url: http://arxiv.org/abs/2603.06428v1
- Date: Fri, 06 Mar 2026 16:06:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.195744
- Title: Abductive Reasoning with Syllogistic Forms in Large Language Models
- Title(参考訳): 大規模言語モデルにおける音韻形式による帰納的推論
- Authors: Hirohiko Abe, Risako Ando, Takanobu Morishita Kentaro Ozeki, Koji Mineshima, Mitsuhiro Okada,
- Abstract要約: アブダクション(Abduction)とは、主要な前提と結論から小さな前提を引き出すプロセスである。
本稿では,誘引的推論におけるLCMの精度について,シロメトリクスデータセットを誘引に適したデータに変換することによって検討する。
本研究の目的は、現在最先端のLCMが誘拐のバイアスを示すかどうかを調査し、改善の可能性のある領域を特定することである。
- 参考スコア(独自算出の注目度): 4.33876606928699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research in AI using Large-Language Models (LLMs) is rapidly evolving, and the comparison of their performance with human reasoning has become a key concern. Prior studies have indicated that LLMs and humans share similar biases, such as dismissing logically valid inferences that contradict common beliefs. However, criticizing LLMs for these biases might be unfair, considering our reasoning not only involves formal deduction but also abduction, which draws tentative conclusions from limited information. Abduction can be regarded as the inverse form of syllogism in its basic structure, that is, a process of drawing a minor premise from a major premise and conclusion. This paper explores the accuracy of LLMs in abductive reasoning by converting a syllogistic dataset into one suitable for abduction. It aims to investigate whether the state-of-the-art LLMs exhibit biases in abduction and to identify potential areas for improvement, emphasizing the importance of contextualized reasoning beyond formal deduction. This investigation is vital for advancing the understanding and application of LLMs in complex reasoning tasks, offering insights into bridging the gap between machine and human cognition.
- Abstract(参考訳): LLM(Large-Language Models)を用いたAIの研究は急速に進展しており、その性能と人間の推論を比較することが重要な関心事となっている。
以前の研究では、LLMと人間は、共通の信念と矛盾する論理的に有効な推論を除外するなど、同様のバイアスを共有していることが示されている。
しかしながら、これらのバイアスについてLLMを批判するのは不公平であるかもしれない。
アブダクションは、その基本的な構造、すなわち、主要な前提と結論から小さな前提を引き出す過程における逆形式のシロジズムと見なすことができる。
本稿では,誘引的推論におけるLCMの精度について,シロメトリクスデータセットを誘引に適したデータに変換することによって検討する。
本研究の目的は, 最先端のLDMが誘拐のバイアスを生じさせるかどうかを調査し, 形式的推論以上の文脈的推論の重要性を強調し, 改善の潜在的な領域を特定することである。
この調査は、複雑な推論タスクにおけるLLMの理解と応用の促進に不可欠であり、マシンと人間の認知のギャップを埋めるための洞察を提供する。
関連論文リスト
- A Systematic Analysis of Large Language Models as Soft Reasoners: The Case of Syllogistic Inferences [5.141416267381492]
我々は、論理学と認知心理学において広範囲に研究されている誘因的推論の領域であるシロメトリクス推論の事例を考察する。
思考の連鎖的推論,文脈内学習,教師付き微調整がシロメトリクス的推論に及ぼす影響について検討した。
以上の結果から,事前学習したLSMの行動は認知科学によって説明できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-06-17T08:59:04Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Concise and Organized Perception Facilitates Reasoning in Large Language Models [31.238220405009617]
推論に取り組むために大規模な言語モデル(LLM)をエクスプロイトすることは、注目を集めている。
複雑な論理的問題において満足な結果を達成することは依然として非常に困難であり、コンテキスト内の多くの前提とマルチホップ推論が特徴である。
本研究は,まず情報フローの観点からそのメカニズムを考察し,不規則な内容や無関係な内容を扱う際に,人間のような認知バイアスに類似した困難に直面することを明らかにする。
論文 参考訳(メタデータ) (2023-10-05T04:47:49Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。