論文の概要: Social Perceptions of English Spelling Variation on Twitter: A Comparative Analysis of Human and LLM Responses
- arxiv url: http://arxiv.org/abs/2511.23041v1
- Date: Fri, 28 Nov 2025 10:06:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.851085
- Title: Social Perceptions of English Spelling Variation on Twitter: A Comparative Analysis of Human and LLM Responses
- Title(参考訳): Twitterにおける英語スペル変化の社会的知覚:人間とLLMの反応の比較分析
- Authors: Dong Nguyen, Laura Rosseel,
- Abstract要約: Spelling variationは、テキストとその作者の社会的知覚に影響を与える可能性がある。
本研究は,英語のオンライン文章における綴り変化の社会的知覚に焦点を当てた。
- 参考スコア(独自算出の注目度): 2.6621826996516718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spelling variation (e.g. funnnn vs. fun) can influence the social perception of texts and their writers: we often have various associations with different forms of writing (is the text informal? does the writer seem young?). In this study, we focus on the social perception of spelling variation in online writing in English and study to what extent this perception is aligned between humans and large language models (LLMs). Building on sociolinguistic methodology, we compare LLM and human ratings on three key social attributes of spelling variation (formality, carefulness, age). We find generally strong correlations in the ratings between humans and LLMs. However, notable differences emerge when we analyze the distribution of ratings and when comparing between different types of spelling variation.
- Abstract(参考訳): Spelling variation (e g funnnn vs. fun)は、テキストとその作者の社会的知覚に影響を与える可能性がある。
本研究では,英語のオンライン文章における綴り変化の社会的知覚に着目し,この認識が人間と大規模言語モデル(LLM)とどのように一致しているかを考察する。
社会言語学的手法に基づき、スペルのバリエーション(形式性、注意力、年齢)の3つの重要な社会的特性について、LLMと人間格付けを比較した。
概して人間とLLMの格付けには強い相関関係がある。
しかし、評価の分布を分析し、異なる種類の綴りのバリエーションを比較すると、顕著な違いが現れる。
関連論文リスト
- Do Large Language Models Adapt to Language Variation across Socioeconomic Status? [29.1246345717672]
人間は、直面している聴衆に言語スタイルを調整します。
これらのモデルが人間同士のコミュニケーションを仲介するようになり、多様なスタイルに適応できないことは、ステレオタイプを永続させ、コミュニティを疎外する。
本研究では,LLMが社会経済的地位(SES)の異なるコミュニティにおけるソーシャルメディアコミュニケーションにどの程度統合されるかを検討する。
論文 参考訳(メタデータ) (2026-02-12T13:36:38Z) - Beyond Survival: Evaluating LLMs in Social Deduction Games with Human-Aligned Strategies [54.08697738311866]
Werewolfのようなソーシャル推論ゲームは、言語、推論、戦略を組み合わせている。
我々は,100時間以上のビデオ,32.4M発声トークン,15の規則変種を含む高品質で人間認証されたWerewolfデータセットをキュレートした。
本稿では,勝利派戦略を2段階の真理として活用する新たな戦略調整評価法を提案する。
論文 参考訳(メタデータ) (2025-10-13T13:33:30Z) - Psycholinguistic Word Features: a New Approach for the Evaluation of LLMs Alignment with Humans [2.7013338932521416]
我々は,LLMの代表群と人間の評価値とのアライメントを心理言語学的データセット上で評価した。
その結果,グラスゴーのノルム評価において,アライメントはテキストカラーブラックの方が概ね良好であることが示唆された。
これは、現在のLLMが単語に対する人間の感覚関連と一致している可能性を示唆している。
論文 参考訳(メタデータ) (2025-05-29T20:56:48Z) - Large Language Models Often Say One Thing and Do Another [49.22262396351797]
我々はWords and Deeds Consistency Test (WDCT)と呼ばれる新しい評価ベンチマークを開発した。
このベンチマークは、異なるドメインにわたる単語ベースの質問とdeedベースの質問の厳密な対応を確立する。
評価結果から,異なるLLMとドメイン間で単語と行為の矛盾が広範囲にあることが明らかとなった。
論文 参考訳(メタデータ) (2025-03-10T07:34:54Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs [58.27353205269664]
社会的バイアスは、Large Language Model(LLM)生成コンテンツにおいて言語エージェンシーに現れる。
LLMのバイアスを包括的に評価するLanguage Agency Bias Evaluationベンチマークを導入する。
LABEを用いて,近年の3つのLLM(ChatGPT,Llama3,Mistral)における言語エージェントの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Secret Keepers: The Impact of LLMs on Linguistic Markers of Personal Traits [6.886654996060662]
本研究では,Large Language Models (LLMs) が,人口動態や心理的特徴の言語マーカーに与える影響について検討する。
筆者らの個人的特徴に対する言語パターンの予測能力は, LLMの使用によってわずかに低下するが, 顕著な変化は稀である。
論文 参考訳(メタデータ) (2024-03-30T06:49:17Z) - Syntactic Language Change in English and German: Metrics, Parsers, and Convergences [56.47832275431858]
本論文は,過去160年間の議会討論のコーパスを用いて,英語とドイツ語の統語的言語変化のダイアクロニックな傾向を考察する。
私たちは、広く使われているStanford Coreと、新しい4つの選択肢を含む5つの依存関係をベースとしています。
文長分布の尾部では,構文的尺度の変化が頻繁であることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-18T11:46:16Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Contrasting Linguistic Patterns in Human and LLM-Generated News Text [20.127243508644984]
人書き英語のニューステキストに比較して,LLM(Large Language Model)の出力を定量的に分析する。
結果は、人間とAIが生成したテキストの様々な測定可能な相違を明らかにした。
人間の文章は、より散在した文の長さの分布、より多様な語彙、依存と構成型の明確な利用を示す。
LLM出力は人文よりも数字、記号、補助語が多用され、代名詞も多用される。
論文 参考訳(メタデータ) (2023-08-17T15:54:38Z) - PersonaLLM: Investigating the Ability of Large Language Models to Express Personality Traits [30.770525830385637]
本研究では,ビッグファイブ・パーソナリティ・モデルに基づく大規模言語モデル(LLM)の行動について検討する。
その結果, LLMペルソナの自己申告したBFIスコアは, 指定した性格タイプと一致していることがわかった。
人間の評価は、人間は最大80%の精度でいくつかの性格特性を知覚できることを示している。
論文 参考訳(メタデータ) (2023-05-04T04:58:00Z) - Multilingual Contextual Affective Analysis of LGBT People Portrayals in
Wikipedia [34.183132688084534]
物語文における特定の語彙選択は、物語の中の人々に対する作家の態度を反映し、聴衆の反応に影響を与える。
言語や文化によって単語の意味がどう異なるかを示し、既存の英語データセットを一般化することの難しさを浮き彫りにしている。
次に、LGBTコミュニティのメンバーのウィキペディアの伝記ページを3つの言語で分析することで、本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-10-21T08:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。