論文の概要: 'Rarely' a problem? Language models exhibit inverse scaling in their
predictions following 'few'-type quantifiers
- arxiv url: http://arxiv.org/abs/2212.08700v1
- Date: Fri, 16 Dec 2022 20:01:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 14:15:13.067431
- Title: 'Rarely' a problem? Language models exhibit inverse scaling in their
predictions following 'few'-type quantifiers
- Title(参考訳): 「レイリー」問題か?
フェー型量化器による言語モデルの逆スケーリング
- Authors: James A. Michaelov, Benjamin K. Bergen
- Abstract要約: 量化子を持たない文成分が共起する可能性が高いため、言語モデルでは「数」型の量化子が問題となることがある。
そこで我々は,2つのヒト神経言語実験から,異なるサイズの自己回帰トランスフォーマーモデル22まで,960の文を提示する。
- 参考スコア(独自算出の注目度): 0.6091702876917281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language Models appear to perform poorly on quantification. We ask how badly.
'Few'-type quantifiers, as in 'few children like vegetables' might pose a
particular challenge for Language Models, since the sentence components without
the quantifier are likely to co-occur, and because 'few'-type quantifiers are
rare. We present 960 sentences stimuli from two human neurolinguistic
experiments to 22 autoregressive transformer models of differing sizes. Not
only do the models perform poorly on 'few'-type quantifiers, but overall the
larger the model, the worse its performance. We interpret this inverse scaling
as suggesting that larger models increasingly reflect online rather than
offline human processing, and argue that decreasing performance of larger
models may challenge uses of Language Models as the basis for Natural Language
Systems.
- Abstract(参考訳): 言語モデルは量化に乏しいようだ。
どれだけひどいか尋ねます
「野菜のような子供」のような「数」型の量化器は、量化器のない文成分が共起する可能性が高く、「数」型の量化器は稀であるため、言語モデルでは特に課題となる。
2つの神経言語実験から22種類の異なる大きさの自己回帰トランスフォーマーモデルに960文の刺激を与える。
このモデルでは'few'型量子化器の性能が低下するだけでなく、モデルが大きくなるほど性能が低下する。
この逆のスケーリングは、大規模なモデルがオフラインの人事処理よりもオンラインに反映されることを示唆していると解釈し、より大きなモデルの性能の低下は自然言語システムの基盤として言語モデルの使用に挑戦する可能性があると主張している。
関連論文リスト
- Frequency Explains the Inverse Correlation of Large Language Models'
Size, Training Data Amount, and Surprisal's Fit to Reading Times [15.738530737312335]
近年の研究では、トランスフォーマーに基づく言語モデルが大きくなり、非常に大量のデータで訓練されているため、その推定結果が自然主義的な人間の読解時間に適合していることが示されている。
本稿では,これら2つの傾向の根底にある説明要因として,単語頻度が重要であることを示す一連の分析結果を示す。
その結果,トランスフォーマーをベースとした言語モデルによる推定は,稀な単語を予測するために学習する超人的に複雑な関連性から,人間の期待から逸脱していることがわかった。
論文 参考訳(メタデータ) (2024-02-03T20:22:54Z) - Evaluating Large Language Models on Controlled Generation Tasks [92.64781370921486]
本稿では,異なる粒度を持つ文計画ベンチマークを含む,様々なベンチマークを広範囲に分析する。
大規模言語モデルと最先端の微調整された小型モデルを比較した後、大規模言語モデルが後方に落ちたり、比較されたり、より小型モデルの能力を超えたりしたスペクトルを示す。
論文 参考訳(メタデータ) (2023-10-23T03:48:24Z) - Training Trajectories of Language Models Across Scales [99.38721327771208]
言語モデルのスケールアップは、前例のないパフォーマンス向上につながった。
異なるサイズの言語モデルは事前学習中にどのように学習するか?
より大きな言語モデルはなぜ望ましい振る舞いを示すのか?
論文 参考訳(メタデータ) (2022-12-19T19:16:29Z) - Lexical Generalization Improves with Larger Models and Longer Training [42.024050065980845]
本稿では,自然言語推論,パラフレーズ検出,読解理解における語彙重なりの活用について分析する。
より大型のモデルでは、語彙的な重複を採用することへの感受性がはるかに低いことが分かりました。
論文 参考訳(メタデータ) (2022-10-23T09:20:11Z) - MonoByte: A Pool of Monolingual Byte-level Language Models [4.491765479948667]
同じ構成で厳格に事前訓練された10のモノリンガルバイトレベルのモデルをリリースする。
トークンを含まないため、目に見えないトークン埋め込みの問題は排除される。
QAタスクとNLIタスクの実験は、我々のモノリンガルモデルがマルチリンガルモデルと競合する性能を達成することを示す。
論文 参考訳(メタデータ) (2022-09-22T14:32:48Z) - Emergent Abilities of Large Language Models [172.08007363384218]
より小さなモデルには存在しないが、より大きなモデルには存在しない場合、創発する能力を考える。
このような出現の存在は、さらなるスケーリングが言語モデルの機能範囲をさらに拡大することを意味している。
論文 参考訳(メタデータ) (2022-06-15T17:32:01Z) - Scaling Language Models: Methods, Analysis & Insights from Training
Gopher [83.98181046650664]
本稿では,トランスフォーマーに基づく言語モデルの性能を,幅広いモデルスケールで解析する。
スケールからのゲインは、理解、事実確認、有害言語の同定などにおいて最大である。
我々は、AIの安全性と下流の害の軽減に対する言語モデルの適用について論じる。
論文 参考訳(メタデータ) (2021-12-08T19:41:47Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z) - Limits of Detecting Text Generated by Large-Scale Language Models [65.46403462928319]
誤情報キャンペーンで使用される可能性があるため、長く一貫性のあるテキストを生成できる大規模な言語モデルが危険であると考える者もいる。
ここでは、仮説テスト問題として大規模言語モデル出力検出を定式化し、テキストを真あるいは生成されたものと分類する。
論文 参考訳(メタデータ) (2020-02-09T19:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。