論文の概要: Implicit Behavioral Alignment of Language Agents in High-Stakes Crowd Simulations
- arxiv url: http://arxiv.org/abs/2509.16457v1
- Date: Fri, 19 Sep 2025 22:35:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.802905
- Title: Implicit Behavioral Alignment of Language Agents in High-Stakes Crowd Simulations
- Title(参考訳): 高速群集シミュレーションにおける言語エージェントの意図的行動アライメント
- Authors: Yunzhe Wang, Gale M. Lucas, Burcin Becerik-Gerber, Volkan Ustun,
- Abstract要約: 言語駆動型生成エージェントは、対人訓練からグローバルな政策作成を支援するまで、変革的な利用で社会シミュレーションを可能にした。
近年の研究では、生成的エージェントの行動が、専門家の期待や実世界のデータから逸脱することが多いことが示唆されている。
本稿では,レウィンの行動方程式に基づく分布整合問題として定式化されたPEBA(Persona-Environment Behavioral Alignment)という理論的枠組みを紹介する。
本稿では, エージェントペルソナを反復的に洗練する, LLMに基づく最適化アルゴリズムであるPersonaEvolve(PEvo)を提案する。
- 参考スコア(独自算出の注目度): 3.0112218223206173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language-driven generative agents have enabled large-scale social simulations with transformative uses, from interpersonal training to aiding global policy-making. However, recent studies indicate that generative agent behaviors often deviate from expert expectations and real-world data--a phenomenon we term the Behavior-Realism Gap. To address this, we introduce a theoretical framework called Persona-Environment Behavioral Alignment (PEBA), formulated as a distribution matching problem grounded in Lewin's behavior equation stating that behavior is a function of the person and their environment. Leveraging PEBA, we propose PersonaEvolve (PEvo), an LLM-based optimization algorithm that iteratively refines agent personas, implicitly aligning their collective behaviors with realistic expert benchmarks within a specified environmental context. We validate PEvo in an active shooter incident simulation we developed, achieving an 84% average reduction in distributional divergence compared to no steering and a 34% improvement over explicit instruction baselines. Results also show PEvo-refined personas generalize to novel, related simulation scenarios. Our method greatly enhances behavioral realism and reliability in high-stakes social simulations. More broadly, the PEBA-PEvo framework provides a principled approach to developing trustworthy LLM-driven social simulations.
- Abstract(参考訳): 言語駆動型生成エージェントは、対人訓練からグローバルな政策作成支援まで、大規模な社会シミュレーションを変革的利用で実現している。
しかし、近年の研究では、生成的エージェントの行動は、専門家の期待や実世界のデータから逸脱することが多いことが示唆されている。
そこで本研究では,行動が人とその環境の機能であることを示すレウィンの行動方程式に基づく分布整合問題として,PEBA(Persona-Environment Behavioral Alignment)という理論的枠組みを導入する。
PEBAを応用して,エージェントペルソナを反復的に洗練する,LLMに基づく最適化アルゴリズムであるPersonaEvolve(PEvo)を提案する。
そこで我々は,PEvoをアクティブシューティングインシデントシミュレーションで検証し,ステアリングを使わずに分散分散を平均84%低減し,明示的な命令ベースラインよりも34%改善した。
また,PEvo-refined personasは,新しいシミュレーションシナリオに一般化することを示した。
本手法は, 社会シミュレーションにおける行動リアリズムと信頼性を大幅に向上させる。
より広範に、PEBA-PEvoフレームワークは、信頼できるLLM駆動型社会シミュレーションを開発するための原則化されたアプローチを提供する。
関連論文リスト
- Population-Aligned Persona Generation for LLM-based Social Simulation [58.8436379542149]
本稿では,社会シミュレーションのための高品質な集団対応ペルソナ集合を合成するための体系的枠組みを提案する。
我々のアプローチは、長期のソーシャルメディアデータから物語的ペルソナを生成するために、大きな言語モデルを活用することから始まる。
特定のシミュレーションコンテキストのニーズに対処するために,対象のサブポピュレーションに対してグローバルに整合したペルソナを適応させるタスク固有モジュールを提案する。
論文 参考訳(メタデータ) (2025-09-12T10:43:47Z) - Simulating Generative Social Agents via Theory-Informed Workflow Design [11.992123170134185]
社会エージェントのための体系的設計プロセスを提供する理論インフォームド・フレームワークを提案する。
私たちのフレームワークは、社会的認知理論の原則に基づいており、モチベーション、行動計画、学習という3つの重要なモジュールを導入しています。
実験により, 複雑な条件下での現実的な人間の行動パターンを再現できることが実証された。
論文 参考訳(メタデータ) (2025-08-12T08:14:48Z) - Large Language Model Driven Agents for Simulating Echo Chamber Formation [5.6488384323017]
ソーシャルメディアプラットフォームにおけるエコーチャンバーの台頭は、分極と既存の信念の強化に対する懸念を高めている。
エコーチャンバーの形成をシミュレーションするための従来の手法は、しばしば事前定義された規則や数値シミュレーションに依存してきた。
本稿では,大言語モデル(LLM)を生成エージェントとして活用し,エコーチャンバー力学をシミュレートする新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-25T12:05:11Z) - GenSim: A General Social Simulation Platform with Large Language Model based Agents [111.00666003559324]
我々はtextitGenSim と呼ばれる新しい大規模言語モデル (LLM) ベースのシミュレーションプラットフォームを提案する。
我々のプラットフォームは10万のエージェントをサポートし、現実世界のコンテキストで大規模人口をシミュレートする。
我々の知る限り、GenSimは汎用的で大規模で修正可能な社会シミュレーションプラットフォームに向けた最初の一歩である。
論文 参考訳(メタデータ) (2024-10-06T05:02:23Z) - Shall We Team Up: Exploring Spontaneous Cooperation of Competing LLM Agents [18.961470450132637]
本稿では、エージェントが文脈に深く関与し、明示的な指示なしに適応的な決定を行う自然現象の重要性を強調する。
我々は,3つの競争シナリオにまたがる自発的な協力を探究し,協力の段階的出現をシミュレートした。
論文 参考訳(メタデータ) (2024-02-19T18:00:53Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。