論文の概要: Do Large Language Models Adapt to Language Variation across Socioeconomic Status?
- arxiv url: http://arxiv.org/abs/2602.11939v1
- Date: Thu, 12 Feb 2026 13:36:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.839335
- Title: Do Large Language Models Adapt to Language Variation across Socioeconomic Status?
- Title(参考訳): 大規模言語モデルは社会経済状況における言語変化に適応しているか?
- Authors: Elisa Bassignana, Mike Zhang, Dirk Hovy, Amanda Cercas Curry,
- Abstract要約: 人間は、直面している聴衆に言語スタイルを調整します。
これらのモデルが人間同士のコミュニケーションを仲介するようになり、多様なスタイルに適応できないことは、ステレオタイプを永続させ、コミュニティを疎外する。
本研究では,LLMが社会経済的地位(SES)の異なるコミュニティにおけるソーシャルメディアコミュニケーションにどの程度統合されるかを検討する。
- 参考スコア(独自算出の注目度): 29.1246345717672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans adjust their linguistic style to the audience they are addressing. However, the extent to which LLMs adapt to different social contexts is largely unknown. As these models increasingly mediate human-to-human communication, their failure to adapt to diverse styles can perpetuate stereotypes and marginalize communities whose linguistic norms are less closely mirrored by the models, thereby reinforcing social stratification. We study the extent to which LLMs integrate into social media communication across different socioeconomic status (SES) communities. We collect a novel dataset from Reddit and YouTube, stratified by SES. We prompt four LLMs with incomplete text from that corpus and compare the LLM-generated completions to the originals along 94 sociolinguistic metrics, including syntactic, rhetorical, and lexical features. LLMs modulate their style with respect to SES to only a minor extent, often resulting in approximation or caricature, and tend to emulate the style of upper SES more effectively. Our findings (1) show how LLMs risk amplifying linguistic hierarchies and (2) call into question their validity for agent-based social simulation, survey experiments, and any research relying on language style as a social signal.
- Abstract(参考訳): 人間は、直面している聴衆に言語スタイルを調整します。
しかし、LLMが異なった社会的文脈に適応する程度はほとんど不明である。
これらのモデルが人間同士のコミュニケーションを仲介するようになるにつれて、多様なスタイルに適応できないことは、ステレオタイプを永続させ、言語規範がモデルによってあまり反映されていないコミュニティを疎外し、社会的成層化を補強する。
本研究では,LLMが社会経済的地位(SES)の異なるコミュニティにおけるソーシャルメディアコミュニケーションにどの程度統合されるかを検討する。
SESによって階層化されたRedditとYouTubeから新しいデータセットを収集する。
我々は,そのコーパスからの不完全テキストを含む4つのLLMを誘導し,LLM生成完了を,構文的,修辞的,語彙的特徴を含む94の社会言語学的指標に沿って原文と比較する。
LLMはSESに関してそのスタイルをわずかに調整し、しばしば近似や似顔絵をもたらし、上部SESのスタイルをより効果的にエミュレートする傾向にある。
本研究は, LLMが言語階層を増幅する危険性を示すとともに, エージェントによる社会シミュレーション, 調査実験, 言語スタイルを社会信号として用いた研究の妥当性を疑問視するものである。
関連論文リスト
- An Empirical Study of Collective Behaviors and Social Dynamics in Large Language Model Agents [7.717798298716425]
LLMを駆使したソーシャルメディアプラットフォームであるChirper.aiは,32K LLMエージェント間の7Mポストとインタラクションを1年以上にわたって分析した。
我々はLSMの毒性言語とその言語的特徴,およびそれらの相互作用パターンについて検討し,LSMがヒトと有毒な姿勢において異なる構造パターンを示すことを発見した。
社会思想の連鎖 (CoST) は, 有害な投稿を避けるため, LLM エージェントを思い出させる簡易で効果的な方法である。
論文 参考訳(メタデータ) (2026-02-03T17:34:32Z) - Social Simulations with Large Language Model Risk Utopian Illusion [61.358959720048354]
社会シミュレーションにおける大規模言語モデルの行動分析のための体系的枠組みを提案する。
本手法は,チャットルーム型会話を通してマルチエージェントインタラクションをシミュレートし,5つの言語的側面にわたって解析する。
以上の結果から,LSMは真の人間の行動を忠実に再現するのではなく,過度に理想化されたバージョンを反映していることが明らかとなった。
論文 参考訳(メタデータ) (2025-10-24T06:08:41Z) - LLMs syntactically adapt their language use to their conversational partner [58.92470092706263]
人間の話者は会話中に言語の使用が互いに一致していることがよく観察されている。
大規模言語モデル(LLM)間の会話のコーパスを構築し、2つのLLMエージェントが会話が進むにつれて、より類似した構文的選択をするのを見つける。
論文 参考訳(メタデータ) (2025-03-10T15:37:07Z) - Shaping Shared Languages: Human and Large Language Models' Inductive Biases in Emergent Communication [0.09999629695552195]
ヒトと大言語モデル(LLM)の帰納バイアスに最適化された人工言語がどのように進化するかを検討する。
我々は、人間が協力しても、あらゆる状況において信頼できるコミュニケーションを可能にする、参照接頭辞が出現することを示します。
論文 参考訳(メタデータ) (2025-03-06T12:47:54Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Can Large Language Models Transform Computational Social Science? [79.62471267510963]
大規模言語モデル(LLM)は、(トレーニングデータなしで)ゼロショットで多くの言語処理タスクを実行することができる
この研究は、計算社会科学ツールとしてLLMを使用するためのロードマップを提供する。
論文 参考訳(メタデータ) (2023-04-12T17:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。