論文の概要: Why think step by step? Reasoning emerges from the locality of
experience
- arxiv url: http://arxiv.org/abs/2304.03843v2
- Date: Fri, 19 May 2023 18:13:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 03:21:41.489459
- Title: Why think step by step? Reasoning emerges from the locality of
experience
- Title(参考訳): なぜ一歩ずつ考えるのか?
経験の局所性から推論が現れる
- Authors: Ben Prystawski, Michael Y. Li, Noah D. Goodman
- Abstract要約: 思考の連鎖推論が言語モデルでどのように有用であるかを考察する。
我々は中間変数による推論が推論を改善する「推論ギャップ」が存在することを証明した。
- 参考スコア(独自算出の注目度): 26.67007240772041
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans have a powerful and mysterious capacity to reason. By working through
a series of purely mental steps, we can make inferences we would not be capable
of making directly -- despite the fact that we get no additional data from the
world. Similarly, when large language models generate a series of intermediate
steps (a chain of thought) before answering a question, they often produce
better answers than they otherwise would. We investigate why and how
chain-of-thought reasoning is useful in language models, testing the hypothesis
that reasoning is effective when training data consists of local clusters of
variables that influence each other strongly. These training conditions enable
the chaining of accurate local inferences in order to estimate relationships
between variables that were not seen together in training. We prove that there
will exist a "reasoning gap", where reasoning through intermediate variables
improves inference, for the simple case of an autoregressive density estimator
trained on local samples from a chain-structured probabilistic model. We then
test our hypothesis empirically in more complex models, training an
autoregressive language model on samples from Bayes nets but only including a
subset of variables in each sample. We test language models' ability to match
conditional probabilities with and without intermediate reasoning steps,
finding that intermediate steps are only helpful when the training data is
locally structured with respect to dependencies between variables and that the
combination of locally-structured observations and reasoning is much more
data-efficient than training on all variables. Our results illustrate how the
effectiveness of reasoning step by step is rooted in the local statistical
structure of the training data.
- Abstract(参考訳): 人間は力強く神秘的な能力を持っている。
純粋に精神的な一連のステップを通じて作業することで、世界から追加のデータが得られていないにもかかわらず、直接的に行うことができない推論が可能になる。
同様に、大きな言語モデルが質問に答える前に一連の中間段階(思考の連鎖)を生成するとき、彼らはしばしば他のものよりも優れた答えを生み出す。
言語モデルにおいて連鎖的推論が有用である理由と方法について検討し,相互に強い影響を与える変数の局所クラスタからデータトレーニングを行う場合,推論が有効であるという仮説を検証した。
これらの訓練条件は、訓練中に一緒に見られなかった変数間の関係を推定するために、正確な局所推論の連鎖を可能にする。
連鎖構造確率モデルから局所サンプルを用いて学習した自己回帰密度推定器の簡単な場合において、中間変数による推論が推論を改善する「推論ギャップ」が存在することを証明した。
次に、より複雑なモデルで経験的に仮説を検証し、ベイズネットのサンプルに対して自己回帰言語モデルを訓練するが、各サンプルに変数のサブセットのみを含む。
我々は言語モデルの条件付き確率を中間的な推論ステップと一致させる能力をテストし、中間のステップが変数間の依存関係に関して局所的に構造化されている場合にのみ有効であること、局所的な構造化された観察と推論の組み合わせが全ての変数のトレーニングよりもデータ効率が高いことを発見した。
本研究は,学習データの局所的統計構造に,段階別推論の有効性が深く根ざしていることを示す。
関連論文リスト
- Improving the Natural Language Inference robustness to hard dataset by data augmentation and preprocessing [1.7487745673871375]
自然言語推論(英: Natural Language Inference、NLI)とは、仮説が与えられた前提によって正当化できるかどうかを推測するタスクである。
本稿では,単語重複,数値推論,長さミスマッチ問題を解くために,データ拡張と事前処理手法を提案する。
論文 参考訳(メタデータ) (2024-12-10T01:49:23Z) - QUITE: Quantifying Uncertainty in Natural Language Text in Bayesian Reasoning Scenarios [15.193544498311603]
本稿では,カテゴリー的確率変数と複雑な関係を持つ実世界のベイズ推論シナリオのデータセットであるQUITEを提案する。
我々は幅広い実験を行い、論理ベースのモデルが全ての推論型において、アウト・オブ・ボックスの大規模言語モデルより優れていることを発見した。
以上の結果から,ニューロシンボリックモデルが複雑な推論を改善する上で有望な方向であることを示す。
論文 参考訳(メタデータ) (2024-10-14T12:44:59Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - Impact of Pretraining Term Frequencies on Few-Shot Reasoning [51.990349528930125]
事前学習された言語モデルが、事前学習データにおいてあまり頻度の低い用語でどの程度理にかなっているかを検討する。
我々は,様々な数値推論タスクにおいて,GPTに基づく言語モデルに対して,この相関関係の強さを計測する。
LMは数秒の数値推論タスクにおいて高い性能を示すが,本研究の結果は,事前学習データを超えるモデルが実際にどれだけ一般化されるのかという疑問を提起する。
論文 参考訳(メタデータ) (2022-02-15T05:43:54Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - DEMI: Discriminative Estimator of Mutual Information [5.248805627195347]
連続確率変数間の相互情報を推定することは、高次元データにとってしばしば難解で困難である。
近年の進歩は、相互情報の変動的下界を最適化するためにニューラルネットワークを活用している。
提案手法は,データサンプルペアが結合分布から引き出される確率を提供する分類器の訓練に基づく。
論文 参考訳(メタデータ) (2020-10-05T04:19:27Z) - Stable Prediction via Leveraging Seed Variable [73.9770220107874]
従来の機械学習手法は、非因果変数によって誘導されるトレーニングデータにおいて、微妙に刺激的な相関を利用して予測する。
本研究では, 条件付き独立性テストに基づくアルゴリズムを提案し, 種子変数を先行変数とする因果変数を分離し, 安定な予測に採用する。
我々のアルゴリズムは、安定した予測のための最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-06-09T06:56:31Z) - Parameter Space Factorization for Zero-Shot Learning across Tasks and
Languages [112.65994041398481]
本稿では,ニューラルパラメータの空間に対するベイズ生成モデルを提案する。
タスク言語の組み合わせから得られたデータに基づいて、そのような潜伏変数よりも後部を推測する。
我々のモデルは、最先端のゼロショットの言語間転送手法よりも、同等か良い結果が得られる。
論文 参考訳(メタデータ) (2020-01-30T16:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。