論文の概要: Towards a Mechanistic Interpretation of Multi-Step Reasoning
Capabilities of Language Models
- arxiv url: http://arxiv.org/abs/2310.14491v1
- Date: Mon, 23 Oct 2023 01:47:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 23:22:04.074958
- Title: Towards a Mechanistic Interpretation of Multi-Step Reasoning
Capabilities of Language Models
- Title(参考訳): 言語モデルのマルチステップ推論能力の機械論的解釈に向けて
- Authors: Yifan Hou, Jiaoda Li, Yu Fei, Alessandro Stolfo, Wangchunshu Zhou,
Guangtao Zeng, Antoine Bosselut, Mrinmaya Sachan
- Abstract要約: 言語モデル(LM)は強力な多段階推論能力を持つ。
LMが事前学習コーパスから記憶された回答を不正に処理するか,多段階推論機構を用いてタスクを実行するかは明らかでない。
メカニスティックプローブは,ほとんどの例において,モデルの注意から推論ツリーの情報を検出することができることを示す。
- 参考スコア(独自算出の注目度): 107.07851578154242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has shown that language models (LMs) have strong multi-step
(i.e., procedural) reasoning capabilities. However, it is unclear whether LMs
perform these tasks by cheating with answers memorized from pretraining corpus,
or, via a multi-step reasoning mechanism. In this paper, we try to answer this
question by exploring a mechanistic interpretation of LMs for multi-step
reasoning tasks. Concretely, we hypothesize that the LM implicitly embeds a
reasoning tree resembling the correct reasoning process within it. We test this
hypothesis by introducing a new probing approach (called MechanisticProbe) that
recovers the reasoning tree from the model's attention patterns. We use our
probe to analyze two LMs: GPT-2 on a synthetic task (k-th smallest element),
and LLaMA on two simple language-based reasoning tasks (ProofWriter & AI2
Reasoning Challenge). We show that MechanisticProbe is able to detect the
information of the reasoning tree from the model's attentions for most
examples, suggesting that the LM indeed is going through a process of
multi-step reasoning within its architecture in many cases.
- Abstract(参考訳): 近年の研究では、言語モデル(LM)は多段階推論能力(手続き的推論)が強いことが示されている。
しかし、lmsが事前学習したコーパスから記憶された回答を騙すか、あるいは多段階推論機構を介してこれらのタスクを実行するかは定かではない。
本稿では,多段階推論タスクにおけるLMの機械的解釈を探索することにより,この問題に対処する。
具体的には、LMが正しい推論プロセスに類似した推論木を暗黙的に埋め込んでいることを仮定する。
我々は,モデル注意パターンから推論木を復元する新しい探索手法(MechanisticProbe)を導入することにより,この仮説を検証する。
GPT-2を合成タスク(k番目の最小要素)で、LLaMAを2つの単純な言語ベースの推論タスク(ProofWriter & AI2 Reasoning Challenge)で分析する。
メカニスティックプローブは、ほとんどの例において、モデルの注意から推論木に関する情報を検出できることを示し、LMが実際にアーキテクチャ内の多段階の推論プロセスを通過していることを示唆している。
関連論文リスト
- Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - First Heuristic Then Rational: Dynamic Use of Heuristics in Language Model Reasoning [26.732781911221636]
より優れた言語性能を探求するために多段階推論命令が広く採用されている。
我々は,このような多段階推論プロセスにおいて,LMが採用する体系的戦略について報告する。
論文 参考訳(メタデータ) (2024-06-23T11:11:46Z) - Distributional reasoning in LLMs: Parallel reasoning processes in multi-hop reasoning [8.609587510471943]
本稿では,大規模言語モデルにおける内部マルチホップ推論プロセスの新規かつ解釈可能な解析手法を提案する。
推論中、ネットワークの中間層は高度に解釈可能な埋め込みを生成する。
我々の発見は、LLMが推論タスクの解決に使っている戦略を明らかにするのに役立ち、人工知能から生まれる思考プロセスのタイプに関する洞察を提供する。
論文 参考訳(メタデータ) (2024-06-19T21:36:40Z) - LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Can Small Language Models Help Large Language Models Reason Better?: LM-Guided Chain-of-Thought [51.240387516059535]
タスク推論において,ブラックボックスの大きな (>10B) LMを導くために,軽量 (すなわち 1B) 言語モデル (LM) を利用する新しいフレームワーク LM-Guided CoT を導入する。
1)知識蒸留と2)合理性指向とタスク指向の報酬信号からの強化学習を通してモデルを最適化する。
論文 参考訳(メタデータ) (2024-04-04T12:46:37Z) - An Incomplete Loop: Deductive, Inductive, and Abductive Learning in Large Language Models [99.31449616860291]
現代の言語モデル(LM)は、異なる方法で新しいタスクを実行することを学べる。
次の命令では、ターゲットタスクは自然言語で明示的に記述され、少数ショットプロンプトでは、タスクは暗黙的に指定される。
命令推論では、LMはインコンテキストの例を示し、自然言語のタスク記述を生成するように促される。
論文 参考訳(メタデータ) (2024-04-03T19:31:56Z) - How to think step-by-step: A mechanistic understanding of chain-of-thought reasoning [44.02173413922695]
理解の欠如は、CoT(Chain-of-Thought)の促進を促進するモデルの内部メカニズムに大きく影響する。
本研究では,CoT推論を一視点から示す大規模言語モデル内のサブ構造について検討する。
論文 参考訳(メタデータ) (2024-02-28T13:14:20Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - Language Models Are Greedy Reasoners: A Systematic Formal Analysis of
Chain-of-Thought [10.524051272257614]
大規模言語モデル(LLM)は、チェーン・オブ・シークレット・プロンプトが与えられた顕著な推論能力を示している。
本稿では, PrOntoQAと呼ばれる合成質問応答データセットを提案し, それぞれの例を合成世界モデルとして生成する。
これにより、生成された連鎖を形式解析の象徴的な証明に解析することができる。
論文 参考訳(メタデータ) (2022-10-03T21:34:32Z) - Faithful Reasoning Using Large Language Models [12.132449274592668]
因果構造が問題の根底にある論理構造を反映するプロセスを通じて、LMを忠実な多段階推論を行う方法を示す。
我々の手法は、各ステップが2つの微調整されたLMへの呼び出しから得られる推論ステップをチェーンすることで機能する。
我々は,多段階論理推論と科学的質問応答におけるモデルの有効性を実証し,最終的な解答精度のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-08-30T13:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。