論文の概要: ValueSim: Generating Backstories to Model Individual Value Systems
- arxiv url: http://arxiv.org/abs/2505.23827v1
- Date: Wed, 28 May 2025 06:43:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.543436
- Title: ValueSim: Generating Backstories to Model Individual Value Systems
- Title(参考訳): ValueSim: 個々のバリューシステムをモデル化するためのバックストリの生成
- Authors: Bangde Du, Ziyi Ye, Zhijing Wu, Jankowska Monika, Shuqi Zhu, Qingyao Ai, Yujia Zhou, Yiqun Liu,
- Abstract要約: 本稿では,個人バックストリーの生成を通じて個々の価値をシミュレートするフレームワークであるValueSimを紹介する。
World Values Surveyから派生した自己構築型ベンチマークでValueSimをテストすると、トップ1の精度が10%以上向上していることがわかる。
さらなる分析により、ユーザーインタラクション履歴の追加が利用可能になると、パフォーマンスが向上し、モデルがペルソナシミュレーション機能を時間とともに改善できることが示される。
- 参考スコア(独自算出の注目度): 12.177946942464732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Large Language Models (LLMs) continue to exhibit increasingly human-like capabilities, aligning them with human values has become critically important. Contemporary advanced techniques, such as prompt learning and reinforcement learning, are being deployed to better align LLMs with human values. However, while these approaches address broad ethical considerations and helpfulness, they rarely focus on simulating individualized human value systems. To address this gap, we present ValueSim, a framework that simulates individual values through the generation of personal backstories reflecting past experiences and demographic information. ValueSim converts structured individual data into narrative backstories and employs a multi-module architecture inspired by the Cognitive-Affective Personality System to simulate individual values based on these narratives. Testing ValueSim on a self-constructed benchmark derived from the World Values Survey demonstrates an improvement in top-1 accuracy by over 10% compared to retrieval-augmented generation methods. Further analysis reveals that performance enhances as additional user interaction history becomes available, indicating the model's ability to refine its persona simulation capabilities over time.
- Abstract(参考訳): 大きな言語モデル(LLM)は、ますます人間のような能力を示し続けているため、それらを人間の価値と整合させることが重要になっている。
迅速な学習や強化学習といった現代的高度な技術は、LLMと人間の価値をより良く整合させるために展開されている。
しかし、これらのアプローチは幅広い倫理的考察と役に立つことに対処する一方で、個人化された人間の価値体系をシミュレートすることに集中することは滅多にない。
このギャップに対処するために,過去の経験や人口統計情報を反映した個人バックストリーの生成を通じて個々の価値をシミュレートするフレームワークであるValueSimを紹介する。
ValueSimは構造化された個々のデータを物語のバックストリーに変換し、コグニティブ・アフェクティブ・パーソナリティ・システム(Cognitive-Affective Personality System)にインスパイアされたマルチモジュールアーキテクチャを用いて、これらの物語に基づいて個々の価値をシミュレートする。
World Values Surveyから派生した自己構築型ベンチマークでValueSimをテストすると、検索強化生成手法と比較してトップ1の精度が10%以上向上していることがわかる。
さらなる分析により、ユーザーインタラクション履歴の追加が利用可能になると、パフォーマンスが向上し、モデルがペルソナシミュレーション機能を時間とともに改善できることが示される。
関連論文リスト
- GGBond: Growing Graph-Based AI-Agent Society for Socially-Aware Recommender Simulation [2.7083394633019973]
本研究では,ユーザの行動変化を現実的にシミュレートする高忠実な社会シミュレーションプラットフォームを提案する。
このシステムは、重要な心理的メカニズムをカプセル化した5層認知アーキテクチャを備えたSim-User Agentsの集団で構成されている。
特に、心理学的・社会学的理論に基づく近親感-好奇心-相反性--リスク(ICR2)のモチベーションエンジンについて紹介する。
論文 参考訳(メタデータ) (2025-05-27T13:09:21Z) - How Far are LLMs from Being Our Digital Twins? A Benchmark for Persona-Based Behavior Chain Simulation [30.713599131902566]
本稿では,デジタル双生児が連続した人間の行動をシミュレートする能力を評価する最初のベンチマークであるBehavimentChainを紹介する。
BehaviorChainは、多種多様で高品質なペルソナベースの行動連鎖で構成され、1,001のユニークなペルソナに対して15,846の異なる振る舞いがある。
総合的な評価結果は、最先端モデルでさえ、連続した人間の行動の正確なシミュレートに苦慮していることを示している。
論文 参考訳(メタデータ) (2025-02-20T15:29:32Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Human Simulacra: Benchmarking the Personification of Large Language Models [38.21708264569801]
大規模言語モデル(LLM)は、人間の知性の側面を忠実に模倣するシステムとして認識されている。
本稿では,仮想キャラクタのライフストーリーをゼロから構築するためのフレームワークを提案する。
実験により, 構築したシミュラクラは, 対象キャラクタと一致した擬人化応答を生成できることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:11:14Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。