論文の概要: Computational Basis of LLM's Decision Making in Social Simulation
- arxiv url: http://arxiv.org/abs/2504.11671v3
- Date: Mon, 03 Nov 2025 03:47:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 16:14:21.957592
- Title: Computational Basis of LLM's Decision Making in Social Simulation
- Title(参考訳): 社会シミュレーションにおけるLLMの意思決定の計算的基礎
- Authors: Ji Ma,
- Abstract要約: 大規模言語モデル(LLM)は、社会科学や応用環境における人間のような意思決定エージェントとしての役割を担っている。
本研究では,ディクタゲームにおけるLLMの内部表現の探索,定量化,修正を行う手法を提案する。
モデルの推論中にこれらのベクトルを操作することは、それらの変数がモデルの意思決定とどのように関係するかを大幅に変えることができる。
- 参考スコア(独自算出の注目度): 2.0273234820549977
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) increasingly serve as human-like decision-making agents in social science and applied settings. These LLM-agents are typically assigned human-like characters and placed in real-life contexts. However, how these characters and contexts shape an LLM's behavior remains underexplored. This study proposes and tests methods for probing, quantifying, and modifying an LLM's internal representations in a Dictator Game -- a classic behavioral experiment on fairness and prosocial behavior. We extract "vectors of variable variations" (e.g., "male" to "female") from the LLM's internal state. Manipulating these vectors during the model's inference can substantially alter how those variables relate to the model's decision-making. This approach offers a principled way to study and regulate how social concepts can be encoded and engineered within transformer-based models, with implications for alignment, debiasing, and designing AI agents for social simulations in both academic and commercial applications, strengthening sociological theory and measurement.
- Abstract(参考訳): 大規模言語モデル(LLM)は、社会科学や応用環境における人間のような意思決定エージェントとしての役割を担っている。
これらのLDMエージェントは通常、人間のような文字に割り当てられ、実生活のコンテキストに置かれる。
しかし、これらの文字や文脈がどのようにLLMの振舞いを形作るのかは未解明のままである。
本研究では, 公正さと社会行動に関する古典的な行動実験であるディクタゲームにおいて, LLMの内部表現の探索, 定量化, 修正を行う手法を提案する。
LLMの内部状態から「変分ベクター」(例えば「男性」から「女性」)を抽出する。
モデルの推論中にこれらのベクトルを操作することは、それらの変数がモデルの意思決定とどのように関係するかを大幅に変えることができる。
このアプローチは、社会概念をトランスフォーマーベースのモデルでエンコードし、どのように設計するかを研究するための原則化された方法を提供し、アライメント、デバイアスング、そして学術的および商業的な応用における社会シミュレーションのためのAIエージェントの設計、社会学理論と測定を強化する。
関連論文リスト
- Integrating LLM in Agent-Based Social Simulation: Opportunities and Challenges [0.7739037410679168]
本稿では,人間の認知の重要な側面を再現する大規模言語モデルの能力に関する最近の知見をレビューする。
第2部はマルチエージェント・シミュレーション・フレームワークにおけるLLMの新しい応用について調査している。
この論文は、従来のエージェントベースモデリングプラットフォームにLLMを統合するハイブリッドアプローチを提唱することで締めくくっている。
論文 参考訳(メタデータ) (2025-07-25T15:15:35Z) - Modeling Earth-Scale Human-Like Societies with One Billion Agents [54.465233996410156]
Light Societyはエージェントベースのシミュレーションフレームワークである。
社会的プロセスはエージェントと環境状態の構造的遷移として形式化される。
10億以上のエージェントによる社会の効率的なシミュレーションを支援する。
論文 参考訳(メタデータ) (2025-06-07T09:14:12Z) - SocioVerse: A World Model for Social Simulation Powered by LLM Agents and A Pool of 10 Million Real-World Users [59.39512775126668]
本稿では,社会シミュレーションのためのエージェント駆動世界モデルであるSocioVerseを紹介する。
私たちのフレームワークは、4つの強力なアライメントコンポーネントと1000万の実際の個人からなるユーザプールを備えています。
SocioVerseは、多様性、信頼性、代表性を確保しつつ、大規模な人口動態を反映できることを示した。
論文 参考訳(メタデータ) (2025-04-14T12:12:52Z) - Prompting is Not All You Need! Evaluating LLM Agent Simulation Methodologies with Real-World Online Customer Behavior Data [62.61900377170456]
人間の行動のシミュレーションにおいて「主観的信頼性」よりも「LLMの客観的精度」を評価することに重点を置いている。
本稿では,Web ショッピング行動生成の課題に対して,最先端 LLM の総合評価を行った。
論文 参考訳(メタデータ) (2025-03-26T17:33:27Z) - Are Human Interactions Replicable by Generative Agents? A Case Study on Pronoun Usage in Hierarchical Interactions [29.139828718538418]
本研究では,Large Language Models (LLMs) エージェント間の相互作用が人間のものと類似しているかどうかを検討する。
評価の結果,LLMに基づくシミュレーションと人称代名詞の使い方の相違が明らかとなった。
我々は,そのような社会シミュレーションを実践者の意思決定プロセスに用いては,注意を喚起する。
論文 参考訳(メタデータ) (2025-01-25T17:42:47Z) - Sense and Sensitivity: Evaluating the simulation of social dynamics via Large Language Models [27.313165173789233]
大規模言語モデルは、社会力学をシミュレートする古典的エージェントベースモデル(ABM)の強力な代替物として提案されている。
しかし、LLMのブラックボックスの性質から、LLMエージェントが実際に意図した意味論を実行するかどうかは不明である。
目的とする力学を近似するプロンプトを設計することは可能であるが、これらのシミュレーションの品質はプロンプトの特定の選択に非常に敏感である。
論文 参考訳(メタデータ) (2024-12-06T14:50:01Z) - Can Machines Think Like Humans? A Behavioral Evaluation of LLM-Agents in Dictator Games [7.504095239018173]
LLM(Large Language Model)ベースのエージェントは、現実のタスクを担い、人間の社会と関わるようになっている。
独裁者ゲームにおけるAIエージェントの利他的行動に異なるペルソナと実験的フレーミングがどう影響するかを検討する。
LLMに人間のようなアイデンティティを割り当てても、人間のような振る舞いは生じないことを示す。
論文 参考訳(メタデータ) (2024-10-28T17:47:41Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - A Theory of LLM Sampling: Part Descriptive and Part Prescriptive [53.08398658452411]
大規模言語モデル(LLM)は、自律的な意思決定にますます活用されている。
このサンプリング行動が人間の意思決定と類似していることが示される。
統計的ノルムから規範的成分へのサンプルの偏りは、様々な現実世界の領域にまたがる概念に一貫して現れることを示す。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - CLOMO: Counterfactual Logical Modification with Large Language Models [109.60793869938534]
本稿では,新しいタスク,CLOMO(Counterfactual Logical Modification)と高品質な人間アノテーションベンチマークを紹介する。
このタスクでは、LLMは所定の論理的関係を維持するために、与えられた議論的テキストを順応的に変更しなければなりません。
LLMの自然言語出力を直接評価する革新的な評価指標である自己評価スコア(SES)を提案する。
論文 参考訳(メタデータ) (2023-11-29T08:29:54Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。