論文の概要: Analyzing Cognitive Differences Among Large Language Models through the Lens of Social Worldview
- arxiv url: http://arxiv.org/abs/2505.01967v1
- Date: Sun, 04 May 2025 02:35:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.35775
- Title: Analyzing Cognitive Differences Among Large Language Models through the Lens of Social Worldview
- Title(参考訳): 社会世界観のレンズによる大規模言語モデルの認知的差異の分析
- Authors: Jiatao Li, Yanheng Li, Xiaojun Wan,
- Abstract要約: 文化理論を基盤とした構造的枠組みである社会世界分類学(SWT)を紹介する。
我々は28の多種多様な言語モデルにまたがる識別・解釈可能な認知プロファイルを実証的に同定した。
本研究は, 社会的認知バイアスと社会的フィードバックに対する応答性を明らかにすることにより, LLMの解釈可能性を高めた。
- 参考スコア(独自算出の注目度): 39.19508676240209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have become integral to daily life, widely adopted in communication, decision-making, and information retrieval, raising critical questions about how these systems implicitly form and express socio-cognitive attitudes or "worldviews". While existing research extensively addresses demographic and ethical biases, broader dimensions-such as attitudes toward authority, equality, autonomy, and fate-remain under-explored. In this paper, we introduce the Social Worldview Taxonomy (SWT), a structured framework grounded in Cultural Theory, operationalizing four canonical worldviews (Hierarchy, Egalitarianism, Individualism, Fatalism) into measurable sub-dimensions. Using SWT, we empirically identify distinct and interpretable cognitive profiles across 28 diverse LLMs. Further, inspired by Social Referencing Theory, we experimentally demonstrate that explicit social cues systematically shape these cognitive attitudes, revealing both general response patterns and nuanced model-specific variations. Our findings enhance the interpretability of LLMs by revealing implicit socio-cognitive biases and their responsiveness to social feedback, thus guiding the development of more transparent and socially responsible language technologies.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コミュニケーション、意思決定、情報検索において広く採用され、これらのシステムが社会認知的態度や「世界観」を暗黙的にどのように形成し表現するかという批判的な疑問を提起している。
既存の研究は人口統計学と倫理学の偏見を幅広く扱う一方で、権威に対する態度、平等性、自律性、運命が未解決のまま残されているなど幅広い側面を扱っている。
本稿では,文化理論に基づく構造的枠組みである社会世界観分類(SWT)を導入し,4つの標準世界観(ヒエラルキー,平等主義,個人主義,死論)を測定可能なサブ次元に展開する。
SWTを用いて28種類のLDMの識別・解釈可能な認知プロファイルを実証的に同定した。
さらに、社会参照理論に触発されて、明示的な社会的手がかりがこれらの認知態度を体系的に形成し、一般的な反応パターンとニュアンスドモデル固有のバリエーションの両方を明らかにすることを実験的に実証した。
本研究は, 社会的認知バイアスと社会的フィードバックに対する応答性を明らかにすることにより, LLMの解釈可能性を高め, より透明で社会的に責任のある言語技術の発達を導くものである。
関連論文リスト
- Mind the (Belief) Gap: Group Identity in the World of LLMs [22.96432452893247]
社会的バイアスと信念駆動行動は、いくつかのタスクにおける大規模言語モデル(LLM)の決定に大きな影響を与える可能性がある。
本稿では,社会的相互作用と嗜好を形成する上で重要な役割を果たす古典的集団心理学理論である,信念の一致をシミュレートするマルチエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-03T19:50:52Z) - Human-like conceptual representations emerge from language prediction [72.5875173689788]
大規模言語モデル(LLMs)は、言語データに対する次世代の予測を通じてのみ訓練され、顕著な人間的な振る舞いを示す。
これらのモデルは、人間に似た概念を発達させ、もしそうなら、そのような概念はどのように表現され、組織化されるのか?
以上の結果から,LLMは言語記述から他の概念に関する文脈的手がかりに関して柔軟に概念を導出できることが示唆された。
これらの結果は、構造化された人間のような概念表現が、現実世界の接地なしに言語予測から自然に現れることを証明している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - Emergence of human-like polarization among large language model agents [61.622596148368906]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、それを緩和するための有効な戦略を特定するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Ask LLMs Directly, "What shapes your bias?": Measuring Social Bias in Large Language Models [11.132360309354782]
社会的偏見は、様々な人口統計学的アイデンティティを対象とする社会的認識の蓄積によって形成される。
本研究では,社会的知覚を直感的に定量化し,大規模言語モデルにおける社会的バイアスを評価する指標を提案する。
論文 参考訳(メタデータ) (2024-06-06T13:32:09Z) - Is Self-knowledge and Action Consistent or Not: Investigating Large Language Model's Personality [11.660251022962141]
大規模言語モデル(LLM)の人格特性の把握における従来のパーソナリティアンケートの有効性について検討する。
本研究の目的は, LLM が持つ性格特性と実世界のシナリオにおけるその傾向の一致を評価することである。
論文 参考訳(メタデータ) (2024-02-22T16:32:08Z) - Large language models as linguistic simulators and cognitive models in human research [0.0]
人間のようなテキストを生成する大きな言語モデル(LLM)の台頭は、行動や認知研究における人間の参加者を置き換える可能性についての議論を巻き起こした。
心理学・社会科学における言語モデルの基本的有用性を評価するために,この代替視点を批判的に評価する。
この視点は、行動科学と認知科学における言語モデルの役割を再定義し、言語シミュレータや認知モデルとして機能し、マシンインテリジェンスと人間の認知と思考の類似点と相違点に光を当てている。
論文 参考訳(メタデータ) (2024-02-06T23:28:23Z) - Influence of External Information on Large Language Models Mirrors
Social Cognitive Patterns [51.622612759892775]
社会的認知理論は、人々が他人を観察して知識を習得する方法を説明する。
近年,大規模言語モデル(LLM)の急速な発展を目撃している。
LLMは、AIエージェントとして、その認知と行動を形成する外部情報を観察することができる。
論文 参考訳(メタデータ) (2023-05-08T16:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。