論文の概要: The Emergence of Social Science of Large Language Models
- arxiv url: http://arxiv.org/abs/2509.24877v1
- Date: Mon, 29 Sep 2025 14:55:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.064003
- Title: The Emergence of Social Science of Large Language Models
- Title(参考訳): 大規模言語モデルの社会科学の創出
- Authors: Xiao Jia, Zhanzhan Zhao,
- Abstract要約: 大規模言語モデル(LLM)の社会科学は、これらのシステムがマインドアトリビューションを誘発し、相互に相互作用し、人間の活動や制度を変革する方法について考察する。
社会心としてのLLMは、モデルが認知、道徳、偏見の帰属を示す行動を示し、テスト漏れや表面の手がかりのような課題に対処するかどうかを調査する。
ヒューマンインタラクションとしてのLLMは、LLMがタスク、学習、信頼、仕事、ガバナンスをどのように作り変え、ヒューマンAIインターフェースでリスクが生じるかを調べる。
- 参考スコア(独自算出の注目度): 0.8582203861502194
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The social science of large language models (LLMs) examines how these systems evoke mind attributions, interact with one another, and transform human activity and institutions. We conducted a systematic review of 270 studies, combining text embeddings, unsupervised clustering and topic modeling to build a computational taxonomy. Three domains emerge organically across the reviewed literature. LLM as Social Minds examines whether and when models display behaviors that elicit attributions of cognition, morality and bias, while addressing challenges such as test leakage and surface cues. LLM Societies examines multi-agent settings where interaction protocols, architectures and mechanism design shape coordination, norms, institutions and collective epistemic processes. LLM-Human Interactions examines how LLMs reshape tasks, learning, trust, work and governance, and how risks arise at the human-AI interface. This taxonomy provides a reproducible map of a fragmented field, clarifies evidentiary standards across levels of analysis, and highlights opportunities for cumulative progress in the social science of artificial intelligence.
- Abstract(参考訳): 大規模言語モデル(LLM)の社会科学は、これらのシステムがマインドアトリビューションを誘発し、相互に相互作用し、人間の活動や制度を変革する方法について考察する。
我々は,テキスト埋め込み,教師なしクラスタリング,トピックモデリングを組み合わせた270の学術研究の体系的レビューを行い,計算分類学を構築した。
レビューされた文献に3つのドメインが有機的に現れる。
社会心としてのLLMは、モデルが認知、道徳、偏見の属性を示す行動を示すのかどうかを検証し、テスト漏れや表面の手がかりのような課題に対処する。
LLMソシエティは、インタラクションプロトコル、アーキテクチャ、機構設計の整合性、規範、制度、および集合的てんかんプロセスなどを扱うマルチエージェント設定を検証している。
LLM-Human Interactionsは、LLMがタスク、学習、信頼、仕事、ガバナンスをどのように作り変え、ヒューマン・AIインターフェースでリスクが生じるかを調査する。
この分類法は、断片化された分野の再現可能な地図を提供し、分析のレベルを越えて明らかな基準を明確にし、人工知能の社会科学における累積的な進歩の機会を強調している。
関連論文リスト
- Unraveling the cognitive patterns of Large Language Models through module communities [45.399985422756224]
大規模言語モデル(LLM)は、科学、工学、社会において大きな進歩を遂げ、我々の世界を変えました。
実用性と実用性にもかかわらず、LLMの基盤となるメカニズムは何十億ものパラメータや複雑な構造の中に隠されている。
生物学における新たな認知を理解するためのアプローチを採用することで、このギャップに対処する。
論文 参考訳(メタデータ) (2025-08-25T16:49:38Z) - Towards Embodied Agentic AI: Review and Classification of LLM- and VLM-Driven Robot Autonomy and Interaction [0.4786416643636131]
大規模言語モデル(LLM)や視覚言語モデル(VLM)を含む基礎モデルは、ロボットの自律性とヒューマンロボットインタフェースに対する新しいアプローチを実現した。
並行して、視覚言語行動モデル(VLA)や大型行動モデル(LBM)は、ロボットシステムのデクスタリティと能力を高めている。
論文 参考訳(メタデータ) (2025-08-07T11:48:03Z) - Integrating LLM in Agent-Based Social Simulation: Opportunities and Challenges [0.7739037410679168]
本稿では,人間の認知の重要な側面を再現する大規模言語モデルの能力に関する最近の知見をレビューする。
第2部はマルチエージェント・シミュレーション・フレームワークにおけるLLMの新しい応用について調査している。
この論文は、従来のエージェントベースモデリングプラットフォームにLLMを統合するハイブリッドアプローチを提唱することで締めくくっている。
論文 参考訳(メタデータ) (2025-07-25T15:15:35Z) - From Standalone LLMs to Integrated Intelligence: A Survey of Compound Al Systems [6.284317913684068]
複合アルシステム(CAIS)は、大規模な言語モデル(LLM)をレトリバー、エージェント、ツール、オーケストレータといった外部コンポーネントと統合する新興パラダイムである。
学術と産業の両方で採用が増加しているにもかかわらず、CAISの景観は断片化され、分析、分類、評価のための統一された枠組みが欠如している。
本調査は,次世代のシステムレベルの人工知能を理解し,開発し,推進するための総合的な基盤を研究者や実践者に提供することを目的とする。
論文 参考訳(メタデータ) (2025-06-05T02:34:43Z) - Scientific Hypothesis Generation and Validation: Methods, Datasets, and Future Directions [19.926445428206776]
大規模言語モデル(LLM)は科学的仮説の生成と検証を変革している。
この調査は、LLM駆動のアプローチに関する構造化された概要を提供する。
本稿では,検索強化生成,知識グラフ補完,シミュレーション,因果推論,ツール支援推論などの手法について検討する。
論文 参考訳(メタデータ) (2025-05-06T19:22:23Z) - Large Language Model Agent: A Survey on Methodology, Applications and Challenges [88.3032929492409]
大きな言語モデル(LLM)エージェントは、目標駆動の振る舞いと動的適応能力を持ち、人工知能への重要な経路を示す可能性がある。
本調査は, LLMエージェントシステムを方法論中心の分類法により体系的に分解する。
私たちの作業は、エージェントの構築方法、コラボレーション方法、時間の経過とともにどのように進化するか、という、統一されたアーキテクチャの視点を提供します。
論文 参考訳(メタデータ) (2025-03-27T12:50:17Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。