論文の概要: Do language models accommodate their users? A study of linguistic convergence
- arxiv url: http://arxiv.org/abs/2508.03276v1
- Date: Tue, 05 Aug 2025 09:55:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.899473
- Title: Do language models accommodate their users? A study of linguistic convergence
- Title(参考訳): 言語モデルはユーザに対応するか? : 言語収束に関する研究
- Authors: Terra Blevins, Susanne Schmalwieser, Benjamin Roth,
- Abstract要約: モデルは会話のスタイルに強く収束し、しばしば人間のベースラインに対してかなり過度に適合する。
モデル設定間の収束の連続的な変化を観察し、事前訓練されたモデルよりも少ない精度で収束する命令調整および大規模モデルについて考察する。
- 参考スコア(独自算出の注目度): 15.958711524171362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large language models (LLMs) are generally considered proficient in generating language, how similar their language usage is to that of humans remains understudied. In this paper, we test whether models exhibit linguistic convergence, a core pragmatic element of human language communication, asking: do models adapt, or converge, to the linguistic patterns of their user? To answer this, we systematically compare model completions of exisiting dialogues to the original human responses across sixteen language models, three dialogue corpora, and a variety of stylometric features. We find that models strongly converge to the conversation's style, often significantly overfitting relative to the human baseline. While convergence patterns are often feature-specific, we observe consistent shifts in convergence across modeling settings, with instruction-tuned and larger models converging less than their pretrained counterparts. Given the differences between human and model convergence patterns, we hypothesize that the underlying mechanisms for these behaviors are very different.
- Abstract(参考訳): 大規模言語モデル(LLM)は一般的に言語生成に熟練していると考えられているが、言語の使用法が人間のそれとどの程度似ているかはいまだ研究されていない。
本稿では、モデルが人間の言語コミュニケーションにおける中核的実用的要素である言語収束を示すかどうかを検証し、モデルがユーザの言語パターンに適応するか、あるいは収束するかを問う。
そこで本研究では,対話開始時のモデル補完を16言語モデル,対話コーパス3言語,さまざまなスタイル的特徴にまたがって,人間の原応答と体系的に比較する。
モデルは会話のスタイルに強く収束し、しばしば人間のベースラインに対してかなり過度に適合する。
収束パターンは、しばしば特徴固有であるが、トレーニング済みのモデルよりも収束が小さい命令調整および大規模モデルを用いて、モデリング設定間の収束の一貫性のあるシフトを観察する。
人間の収束パターンとモデル収束パターンの違いを考えると、これらの行動の基盤となるメカニズムは非常に異なると仮定する。
関連論文リスト
- Cat, Rat, Meow: On the Alignment of Language Model and Human Term-Similarity Judgments [4.856605865350511]
人間の類似性判断と表現的・行動的整合性を考慮した32の公開言語モデルの評価を行った。
小さな言語モデルの表現でさえ、人間レベルのアライメントを実現することができる。
論文 参考訳(メタデータ) (2025-04-10T17:59:57Z) - Modeling language contact with the Iterated Learning Model [0.0]
反復学習モデルは言語変化のエージェントベースモデルである。
最近導入された反復学習モデルであるSemi-Supervised ILMは、言語接触をシミュレートするために使われている。
論文 参考訳(メタデータ) (2024-06-11T01:43:23Z) - Evaluating Large Language Models on Controlled Generation Tasks [92.64781370921486]
本稿では,異なる粒度を持つ文計画ベンチマークを含む,様々なベンチマークを広範囲に分析する。
大規模言語モデルと最先端の微調整された小型モデルを比較した後、大規模言語モデルが後方に落ちたり、比較されたり、より小型モデルの能力を超えたりしたスペクトルを示す。
論文 参考訳(メタデータ) (2023-10-23T03:48:24Z) - A fine-grained comparison of pragmatic language understanding in humans
and language models [2.231167375820083]
言語モデルと人間を7つの現実的な現象で比較する。
最大のモデルでは精度が高く,人間の誤りパターンと一致していることがわかった。
モデルと人間が同様の言語的手がかりに敏感であるという予備的な証拠がある。
論文 参考訳(メタデータ) (2022-12-13T18:34:59Z) - Analyzing the Mono- and Cross-Lingual Pretraining Dynamics of
Multilingual Language Models [73.11488464916668]
本研究では,多言語事前学習プロセスのダイナミクスについて検討する。
我々は,XLM-Rプレトレーニング全体から抽出したチェックポイントを,一連の言語的タスクを用いて探索する。
分析の結果,より複雑なものよりも低レベルな言語スキルが得られ,早期に高い言語性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-05-24T03:35:00Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Uncovering Constraint-Based Behavior in Neural Models via Targeted
Fine-Tuning [9.391375268580806]
本研究は,言語知識が不明な言語内での競合する言語プロセスを示す。
人間の行動は言語間で類似していることがわかったが、モデル行動の言語間差異は見いだされている。
以上の結果から,言語における言語的制約と相対的ランクの双方をモデルが学習する必要があることが示唆された。
論文 参考訳(メタデータ) (2021-06-02T14:52:11Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z) - Recurrent Neural Network Language Models Always Learn English-Like
Relative Clause Attachment [17.995905582226463]
英語とスペイン語のモデル性能を比較し,RNN LMにおける非言語的バイアスが英語の構文構造と有利に重なることを示す。
英語モデルは人間に似た構文的嗜好を習得しているように見えるが、スペイン語で訓練されたモデルは、同等の人間的な嗜好を取得できない。
論文 参考訳(メタデータ) (2020-05-01T01:21:47Z) - Limits of Detecting Text Generated by Large-Scale Language Models [65.46403462928319]
誤情報キャンペーンで使用される可能性があるため、長く一貫性のあるテキストを生成できる大規模な言語モデルが危険であると考える者もいる。
ここでは、仮説テスト問題として大規模言語モデル出力検出を定式化し、テキストを真あるいは生成されたものと分類する。
論文 参考訳(メタデータ) (2020-02-09T19:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。