論文の概要: Why think step-by-step? Reasoning emerges from the locality of
experience
- arxiv url: http://arxiv.org/abs/2304.03843v1
- Date: Fri, 7 Apr 2023 21:04:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 19:18:33.220297
- Title: Why think step-by-step? Reasoning emerges from the locality of
experience
- Title(参考訳): なぜ段階的に考えるのか?
経験の局所性から推論が現れる
- Authors: Ben Prystawski, Noah D. Goodman
- Abstract要約: 本研究では, 互いに強く影響する変数の局所的クラスタからなるデータを学習する場合, 推論が有効であるという仮説を考察する。
言語モデルの条件付き確率を中間的推論ステップと無関係に比較する。
本研究は, 学習データの統計的構造が, 推論の有効性を段階的に推し進めることを示すものである。
- 参考スコア(独自算出の注目度): 31.50715752268432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans have a powerful and mysterious capacity to reason. By working through
a series of purely mental steps, we can make inferences we would not be capable
of making directly -- despite that fact that we get no additional data from the
world. Similarly, large language models can perform better at complex tasks
through chain-of-thought reasoning, where they generate intermediate steps
before answering a question. We use language models to investigate the
questions of when and why reasoning is helpful, testing the hypothesis that
reasoning is effective when training data consisting of local clusters of
variables that influence each other strongly. These training conditions enable
the chaining of accurate local inferences in order to estimate relationships
between variables that were not seen together in training. We train an
autoregressive transformer on samples from joint distributions defined by Bayes
nets, but only include a subset of all the variables in each sample. We compare
language models' ability to match conditional probabilities both with and
without intermediate reasoning steps, finding that intermediate steps help only
when the training data is locally structured with respect to dependencies
between variables. Furthermore, intermediate variables need to be relevant to
the relationship between observed information and target inferences. Our
results illustrate how the statistical structure of training data drives the
effectiveness of reasoning step by step.
- Abstract(参考訳): 人間は力強く神秘的な能力を持っている。
純粋に精神的な一連のステップを通じて作業することで、世界から追加のデータが得られていないにもかかわらず、直接的に行うことができない推論が可能になる。
同様に、大きな言語モデルは、質問に答える前に中間ステップを生成するチェーン・オブ・ソート推論を通じて複雑なタスクでより良く機能する。
我々は,推論がいつ,なぜ役に立つのかという疑問を言語モデルを用いて調査し,相互に強い影響を与える変数の局所クラスタからなるデータのトレーニングにおいて,推論が有効であるという仮説を検証した。
これらの訓練条件は、訓練中に一緒に見られなかった変数間の関係を推定するために、正確な局所推論の連鎖を可能にする。
ベイズネットが定義した共役分布からサンプルに対して自己回帰変換器を訓練するが、各サンプルの変数のサブセットのみを含む。
言語モデルの条件付き確率を中間的推論ステップと無関係に一致させる能力を比較し,中間段階が変数間の依存関係に関して局所的に構造化された場合のみ有効であることを示す。
さらに、中間変数は観測情報とターゲット推論の関係に関係している必要がある。
この結果から,学習データの統計的構造が推論の有効性を段階的に推し進めることを示す。
関連論文リスト
- QUITE: Quantifying Uncertainty in Natural Language Text in Bayesian Reasoning Scenarios [15.193544498311603]
本稿では,カテゴリー的確率変数と複雑な関係を持つ実世界のベイズ推論シナリオのデータセットであるQUITEを提案する。
我々は幅広い実験を行い、論理ベースのモデルが全ての推論型において、アウト・オブ・ボックスの大規模言語モデルより優れていることを発見した。
以上の結果から,ニューロシンボリックモデルが複雑な推論を改善する上で有望な方向であることを示す。
論文 参考訳(メタデータ) (2024-10-14T12:44:59Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - Impact of Pretraining Term Frequencies on Few-Shot Reasoning [51.990349528930125]
事前学習された言語モデルが、事前学習データにおいてあまり頻度の低い用語でどの程度理にかなっているかを検討する。
我々は,様々な数値推論タスクにおいて,GPTに基づく言語モデルに対して,この相関関係の強さを計測する。
LMは数秒の数値推論タスクにおいて高い性能を示すが,本研究の結果は,事前学習データを超えるモデルが実際にどれだけ一般化されるのかという疑問を提起する。
論文 参考訳(メタデータ) (2022-02-15T05:43:54Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - DEMI: Discriminative Estimator of Mutual Information [5.248805627195347]
連続確率変数間の相互情報を推定することは、高次元データにとってしばしば難解で困難である。
近年の進歩は、相互情報の変動的下界を最適化するためにニューラルネットワークを活用している。
提案手法は,データサンプルペアが結合分布から引き出される確率を提供する分類器の訓練に基づく。
論文 参考訳(メタデータ) (2020-10-05T04:19:27Z) - Stable Prediction via Leveraging Seed Variable [73.9770220107874]
従来の機械学習手法は、非因果変数によって誘導されるトレーニングデータにおいて、微妙に刺激的な相関を利用して予測する。
本研究では, 条件付き独立性テストに基づくアルゴリズムを提案し, 種子変数を先行変数とする因果変数を分離し, 安定な予測に採用する。
我々のアルゴリズムは、安定した予測のための最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-06-09T06:56:31Z) - Parameter Space Factorization for Zero-Shot Learning across Tasks and
Languages [112.65994041398481]
本稿では,ニューラルパラメータの空間に対するベイズ生成モデルを提案する。
タスク言語の組み合わせから得られたデータに基づいて、そのような潜伏変数よりも後部を推測する。
我々のモデルは、最先端のゼロショットの言語間転送手法よりも、同等か良い結果が得られる。
論文 参考訳(メタデータ) (2020-01-30T16:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。