論文の概要: Learning to vary: Teaching LMs to reproduce human linguistic variability in next-word prediction
- arxiv url: http://arxiv.org/abs/2509.17794v2
- Date: Mon, 06 Oct 2025 20:22:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 15:38:21.580405
- Title: Learning to vary: Teaching LMs to reproduce human linguistic variability in next-word prediction
- Title(参考訳): 変化を学習する: 次世代の予測における人間の言語的多様性を再現するためのLMの指導
- Authors: Tobias Groot, Salo Lacunes, Evgenia Ilia,
- Abstract要約: 本研究では,複数単語継続に対するLMの訓練が,次の単語予測のための人間の言語的多様性を再現する能力を向上させるかを検討する。
我々は、事前訓練および指導訓練モデルに微調整技術を採用し、微調整GPT-2およびMistral-7B-ITにおけるそれらの可能性を示す。
- 参考スコア(独自算出の注目度): 0.19116784879310025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language generation (NLG) tasks are often subject to inherent variability; e.g. predicting the next word given a context has multiple valid responses, evident when asking multiple humans to complete the task. While having language models (LMs) that are aligned pluralistically, so that they are able to reproduce well the inherent diversity in perspectives of an entire population of interest is clearly beneficial, Ilia and Aziz (2024) show that LMs do not reproduce this type of linguistic variability well. They speculate this inability might stem from the lack of consistent training of LMs with data reflecting this type of inherent variability. As such, we investigate whether training LMs on multiple plausible word continuations per context can improve their ability to reproduce human linguistic variability for next-word prediction. We employ fine-tuning techniques for pre-trained and instruction-tuned models; and demonstrate their potential when fine-tuning GPT-2 and Mistral-7B-IT, using Provo Corpus. Our evaluation, which measures divergence among empirically estimated human and model next-word distributions across contexts before and after fine-tuning, shows that our multi-label fine-tuning improves the LMs' ability to reproduce linguistic variability; both for contexts that admit higher and lower variability.
- Abstract(参考訳): 自然言語生成(NLG)タスクは、しばしば固有の変数の影響を受ける。例えば、コンテキストが与えられた次の単語を予測するには、複数の人間がタスクを完了するよう要求する場合に、複数の有効な応答がある。
Ilia and Aziz (2024) は、複数の言語モデル(LM)が複数列に並んでいるので、興味のある人全体の観点で固有の多様性をうまく再現できることは明らかであるが、このタイプの言語的多様性をうまく再現していないことを示している。
彼らは、この不変性は、この種の固有の変数を反映したデータによるLMの一貫性のあるトレーニングの欠如に起因するかもしれないと推測した。
そこで本研究では,複数単語継続に対するLMの訓練が,次の単語予測のための人間の言語的多様性を再現する能力を向上させることができるかどうかを考察する。
Provo Corpus を用いた GPT-2 と Mistral-7B-IT の微調整手法について検討した。
実験によって推定された人やモデルの次単語分布の微調整前後における差異を評価した結果,多ラベル微調整により,高い変数と低い変数を許容する文脈において,多ラベル微調整により言語的変数を再現する能力が向上することが示唆された。
関連論文リスト
- Counterfactual reasoning: an analysis of in-context emergence [49.58529868457226]
大規模ニューラルネットワークモデル(LM)は、文脈内学習において顕著な性能を示す。
この研究は、言語モデルにおける文脈内対実的推論、すなわち仮説的シナリオの下での変化の結果を予測することを研究する。
論文 参考訳(メタデータ) (2025-06-05T16:02:07Z) - Spontaneous Speech Variables for Evaluating LLMs Cognitive Plausibility [0.7061230262755125]
本稿では, 音声コーパスを用いて生成変数(音声の縮小, 韻律的優位性)を導出し, 同様の方法で適用することを提案する。
次に、これらの2つの変数を予測するために、異なる事前学習データセットの標準手順でトレーニングされたモデルをテストします。
以上の結果から,いくつかの微調整の後,モデルがこれらの生産変数をベースラインよりはるかに高い精度で予測できることが示唆された。
論文 参考訳(メタデータ) (2025-05-22T06:23:02Z) - From Babbling to Fluency: Evaluating the Evolution of Language Models in Terms of Human Language Acquisition [6.617999710257379]
本稿では,LMの能力を評価するための3段階のフレームワークを提案する。
言語研究の手法を用いて, LMの生成能力を評価する。
論文 参考訳(メタデータ) (2024-10-17T06:31:49Z) - Predict the Next Word: Humans exhibit uncertainty in this task and language models _____ [7.581259361859477]
言語モデル(LM)は、人間の生成したテキストに確率を割り当てるように訓練されている。
我々は、この事実を利用して、人間が「次の単語予測」タスクで示す変動性を再現するLMの能力を評価する。
我々は、GPT2、BLOOM、ChatGPTを評価し、人間の不確実性に対するキャリブレーションがかなり低いことを発見した。
論文 参考訳(メタデータ) (2024-02-27T14:11:32Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [47.7950860342515]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - Humans and language models diverge when predicting repeating text [52.03471802608112]
我々は,人間とLMのパフォーマンスが分岐するシナリオを提示する。
人間とGPT-2 LMの予測はテキストスパンの最初のプレゼンテーションで強く一致しているが、メモリが役割を担い始めると、その性能は急速にバラバラになる。
このシナリオが,LMを人間の行動に近づける上で,今後の作業に拍車をかけることを期待しています。
論文 参考訳(メタデータ) (2023-10-10T08:24:28Z) - Evaluating Distributional Distortion in Neural Language Modeling [81.83408583979745]
稀な事象の重みは、言語における分布の総確率質量のかなりの量を占める。
パープレキシティなどの標準言語モデリングメトリクスは、集約された言語モデル(LM)のパフォーマンスを定量化する。
自然言語を人工言語として訓練した生成モデルを用いた制御評価手法を開発した。
論文 参考訳(メタデータ) (2022-03-24T01:09:46Z) - Better Language Model with Hypernym Class Prediction [101.8517004687825]
クラスベース言語モデル (LM) は、コンテキストの疎結合に$n$-gramのLMで対処するために長年開発されてきた。
本研究では,このアプローチをニューラルLMの文脈で再考する。
論文 参考訳(メタデータ) (2022-03-21T01:16:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。