論文の概要: The Homogenizing Effect of Large Language Models on Human Expression and Thought
- arxiv url: http://arxiv.org/abs/2508.01491v1
- Date: Sat, 02 Aug 2025 21:22:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.902477
- Title: The Homogenizing Effect of Large Language Models on Human Expression and Thought
- Title(参考訳): 大規模言語モデルの人間表現と思考に対する均質化効果
- Authors: Zhivar Sourati, Alireza S. Ziabari, Morteza Dehghani,
- Abstract要約: このレビューは言語学、認知学、コンピュータ科学にまたがる証拠を合成し、大きな言語モデル(LLM)が支配的なスタイルをどのように反映し、強化するかを示す。
トレーニングデータにおけるパターンのミラーリングによって,その設計と普及が,この効果にどのように寄与するかを検討する。
確認されていないが、この均質化は、集団知性と適応性を促進する認知的景観をフラットにするリスクがある。
- 参考スコア(独自算出の注目度): 1.2057938662974816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cognitive diversity, reflected in variations of language, perspective, and reasoning, is essential to creativity and collective intelligence. This diversity is rich and grounded in culture, history, and individual experience. Yet as large language models (LLMs) become deeply embedded in people's lives, they risk standardizing language and reasoning. This Review synthesizes evidence across linguistics, cognitive, and computer science to show how LLMs reflect and reinforce dominant styles while marginalizing alternative voices and reasoning strategies. We examine how their design and widespread use contribute to this effect by mirroring patterns in their training data and amplifying convergence as all people increasingly rely on the same models across contexts. Unchecked, this homogenization risks flattening the cognitive landscapes that drive collective intelligence and adaptability.
- Abstract(参考訳): 言語、視点、推論のバリエーションに反映される認知的多様性は、創造性や集団知性に不可欠である。
この多様性は豊かなものであり、文化、歴史、個人の経験に根ざしている。
しかし、大きな言語モデル(LLM)が人々の生活に深く浸透するにつれて、言語と推論を標準化するリスクがある。
このレビューは言語学、認知学、コンピュータ科学にまたがるエビデンスを合成し、LLMが支配的なスタイルを反映し、強化し、代替の音声や推論戦略を疎外していることを示す。
トレーニングデータにおけるパターンのミラーリングと,すべての人がコンテキスト全体にわたって同じモデルに依存しているため,コンバージェンスの向上によって,その設計と普及が,この効果にどのように寄与するかを検討する。
確認されていないが、この均質化は、集団知性と適応性を促進する認知的景観をフラットにするリスクがある。
関連論文リスト
- Losing our Tail -- Again: On (Un)Natural Selection And Multilingual Large Language Models [0.8702432681310399]
言語分布の尾は消えつつあるし、それらとともに、彼らが持っている物語やアイデンティティも消えつつある、と私は主張する。
これは言語的平坦化に抵抗し、NLPを多言語的・言語的多様性と創造性を表現的に促進し、価値を与え、保護する分野として再想像することである。
論文 参考訳(メタデータ) (2025-07-05T07:36:49Z) - Analyzing Cognitive Differences Among Large Language Models through the Lens of Social Worldview [39.19508676240209]
文化理論を基盤とした構造的枠組みである社会世界分類学(SWT)を紹介する。
我々は28の多種多様な言語モデルにまたがる識別・解釈可能な認知プロファイルを実証的に同定した。
本研究は, 社会的認知バイアスと社会的フィードバックに対する応答性を明らかにすることにより, LLMの解釈可能性を高めた。
論文 参考訳(メタデータ) (2025-05-04T02:35:24Z) - The Shrinking Landscape of Linguistic Diversity in the Age of Large Language Models [7.811355338367627]
大規模言語モデル (LLMs) は, 言語多様性の顕著な低下と関係があることが示唆された。
テキストの中核的な内容は、LLMがテキストを洗練・書き直しする際に保持されるが、書体スタイルを均質化するだけでなく、特定の支配的特徴やバイアスを選択的に増幅し、他を抑圧する方法でスタイル的要素を変更することも示している。
論文 参考訳(メタデータ) (2025-02-16T20:51:07Z) - Human-like conceptual representations emerge from language prediction [72.5875173689788]
大規模言語モデル(LLMs)は、言語データに対する次世代の予測を通じてのみ訓練され、顕著な人間的な振る舞いを示す。
これらのモデルは、人間に似た概念を発達させ、もしそうなら、そのような概念はどのように表現され、組織化されるのか?
以上の結果から,LLMは言語記述から他の概念に関する文脈的手がかりに関して柔軟に概念を導出できることが示唆された。
これらの結果は、構造化された人間のような概念表現が、現実世界の接地なしに言語予測から自然に現れることを証明している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - Analyzing The Language of Visual Tokens [48.62180485759458]
我々は、離散的な視覚言語を分析するために、自然言語中心のアプローチをとる。
トークンの高度化はエントロピーの増大と圧縮の低下を招き,トークンが主にオブジェクト部品を表すことを示す。
また、視覚言語には結合的な文法構造が欠如していることが示され、自然言語と比較して難易度が高く、階層構造が弱いことが判明した。
論文 参考訳(メタデータ) (2024-11-07T18:59:28Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Six Fallacies in Substituting Large Language Models for Human Participants [0.0]
大規模言語モデル(LLM)のようなAIシステムは、行動研究や心理学研究における人間の参加者を置き換えることができるのだろうか?
ここでは「置き換え」の観点を批判的に評価し、その妥当性を損なう6つの解釈誤りを識別する。
それぞれの誤りは、LSMとは何か、人間の認知について何を教えてくれるのかについて、潜在的な誤解を表している。
論文 参考訳(メタデータ) (2024-02-06T23:28:23Z) - Improving Diversity of Demographic Representation in Large Language
Models via Collective-Critiques and Self-Voting [19.79214899011072]
本稿では,生成的大言語モデルにおける表現の多様性を形式化する。
評価データセットを提示し、人や文化軸に沿って生成された反応の多様性を測定する指標を提案する。
LLMは多様性の概念を理解し、その目標に対して自身の反応を推論し、批判することができる。
論文 参考訳(メタデータ) (2023-10-25T10:17:17Z) - On the Amplification of Linguistic Bias through Unintentional
Self-reinforcement Learning by Generative Language Models -- A Perspective [2.458437232470188]
ジェネレーティブ言語モデル(GLM)は、言語景観を著しく形作る可能性がある。
本稿では,GLMの初期バイアスが生成したテキストに反映される現象が,その後のモデルの学習材料に反映される可能性について考察する。
この潜在的な自己強化サイクルの影響は、モデル自体を超えて、人間の言語や言論に影響を与える。
論文 参考訳(メタデータ) (2023-06-12T14:17:05Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。