論文の概要: GGBond: Growing Graph-Based AI-Agent Society for Socially-Aware Recommender Simulation
- arxiv url: http://arxiv.org/abs/2505.21154v1
- Date: Tue, 27 May 2025 13:09:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.660604
- Title: GGBond: Growing Graph-Based AI-Agent Society for Socially-Aware Recommender Simulation
- Title(参考訳): GGBond: ソーシャルアウェアなレコメンダシミュレーションのためのグラフベースのAI-Agent Society
- Authors: Hailin Zhong, Hanlin Wang, Yujun Ye, Meiyi Zhang, Shengxin Zhu,
- Abstract要約: 本研究では,ユーザの行動変化を現実的にシミュレートする高忠実な社会シミュレーションプラットフォームを提案する。
このシステムは、重要な心理的メカニズムをカプセル化した5層認知アーキテクチャを備えたSim-User Agentsの集団で構成されている。
特に、心理学的・社会学的理論に基づく近親感-好奇心-相反性--リスク(ICR2)のモチベーションエンジンについて紹介する。
- 参考スコア(独自算出の注目度): 2.7083394633019973
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current personalized recommender systems predominantly rely on static offline data for algorithm design and evaluation, significantly limiting their ability to capture long-term user preference evolution and social influence dynamics in real-world scenarios. To address this fundamental challenge, we propose a high-fidelity social simulation platform integrating human-like cognitive agents and dynamic social interactions to realistically simulate user behavior evolution under recommendation interventions. Specifically, the system comprises a population of Sim-User Agents, each equipped with a five-layer cognitive architecture that encapsulates key psychological mechanisms, including episodic memory, affective state transitions, adaptive preference learning, and dynamic trust-risk assessments. In particular, we innovatively introduce the Intimacy--Curiosity--Reciprocity--Risk (ICR2) motivational engine grounded in psychological and sociological theories, enabling more realistic user decision-making processes. Furthermore, we construct a multilayer heterogeneous social graph (GGBond Graph) supporting dynamic relational evolution, effectively modeling users' evolving social ties and trust dynamics based on interest similarity, personality alignment, and structural homophily. During system operation, agents autonomously respond to recommendations generated by typical recommender algorithms (e.g., Matrix Factorization, MultVAE, LightGCN), deciding whether to consume, rate, and share content while dynamically updating their internal states and social connections, thereby forming a stable, multi-round feedback loop. This innovative design transcends the limitations of traditional static datasets, providing a controlled, observable environment for evaluating long-term recommender effects.
- Abstract(参考訳): 現在のパーソナライズされたレコメンデーションシステムは、アルゴリズムの設計と評価に静的なオフラインデータに大きく依存しており、現実のシナリオにおける長期的なユーザの好みの進化と社会的影響のダイナミクスをキャプチャする能力を著しく制限している。
この根本的な課題に対処するために,人間のような認知エージェントと動的ソーシャルインタラクションを統合した高忠実な社会シミュレーションプラットフォームを提案する。
具体的には、Sim-User Agentsの集団で構成され、それぞれがエピソード記憶、情緒的状態遷移、適応的嗜好学習、動的信頼リスク評価を含む主要な心理的メカニズムをカプセル化する5層認知アーキテクチャを備えている。
特に、心理的・社会学的理論に基づく近親感-好奇心-相反性-リスク(ICR2)のモチベーションエンジンを革新的に導入し、より現実的なユーザ意思決定プロセスを実現する。
さらに、動的リレーショナルな進化をサポートする多層不均一なソーシャルグラフ(GGBond Graph)を構築し、興味の類似性、パーソナリティアライメント、構造的ホモフィリーに基づいて、ユーザの進化するソーシャルな関係と信頼のダイナミクスを効果的にモデル化する。
システム運用中、エージェントは典型的なレコメンデーションアルゴリズム(Matrix Factorization、MultVAE、LightGCN)によって生成されたレコメンデーションに自律的に応答し、内部状態とソーシャルコネクションを動的に更新しながらコンテンツを消費、レート、共有するかどうかを決定し、安定したマルチラウンドフィードバックループを形成する。
この革新的な設計は、従来の静的データセットの制限を超越し、長期推奨効果を評価するための制御された監視可能な環境を提供する。
関連論文リスト
- Exploring the Impact of Personality Traits on Conversational Recommender Systems: A Simulation with Large Language Models [70.180385882195]
本稿では,対話型レコメンダシステム(CRS)のためのパーソナリティを考慮したユーザシミュレーションを提案する。
ユーザエージェントはカスタマイズ可能な性格特性と嗜好を誘導し、システムエージェントはCRS内の現実的な相互作用をシミュレートする説得能力を有する。
実験により,現在最先端のLCMは,特定の性格特性に適合した多様なユーザ応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2025-04-09T13:21:17Z) - Towards Recommender Systems LLMs Playground (RecSysLLMsP): Exploring Polarization and Engagement in Simulated Social Networks [6.813586966214873]
本稿では,Large Language Models (LLMs) を利用した新しいシミュレーションフレームワークを提案する。
説明的、静的、動的属性を持つ多様なAIエージェントを作成することで、3つのシナリオにわたって自律的な振る舞いを評価する。
本研究は, 社会的分極を緩和しつつ, ユーザの満足度を高めるためのレコメンデータシステム設計において, 慎重なバランスの必要性を強調するものである。
論文 参考訳(メタデータ) (2025-01-29T14:23:34Z) - Synthetic Social Media Influence Experimentation via an Agentic Reinforcement Learning Large Language Model Bot [7.242974711907219]
本研究は,エージェント・インテリジェンスとLarge Language Models(LLM)を組み合わせることで,トピック固有の影響メカニズムをテストする新しいシミュレーション環境を提供する。
我々のフレームワークには、投稿を生成し、特定のトピックについて意見を形成し、議論の結果に基づいて相互にフォロー/アンフォローするエージェントが含まれています。
論文 参考訳(メタデータ) (2024-11-29T11:37:12Z) - Multi-Agent Dynamic Relational Reasoning for Social Robot Navigation [50.01551945190676]
社会ロボットナビゲーションは、日常生活の様々な状況において有用であるが、安全な人間とロボットの相互作用と効率的な軌道計画が必要である。
本稿では, 動的に進化する関係構造を明示的に推論した系統的関係推論手法を提案する。
マルチエージェント軌道予測とソーシャルロボットナビゲーションの有効性を実証する。
論文 参考訳(メタデータ) (2024-01-22T18:58:22Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - Preference Enhanced Social Influence Modeling for Network-Aware Cascade
Prediction [59.221668173521884]
本稿では,ユーザの嗜好モデルを強化することで,カスケードサイズ予測を促進する新しいフレームワークを提案する。
エンド・ツー・エンドの手法により,ユーザの情報拡散プロセスがより適応的で正確になる。
論文 参考訳(メタデータ) (2022-04-18T09:25:06Z) - Reinforcement Learning Beyond Expectation [11.428014000851535]
累積予測理論 (cumulative prospect theory, cpt) は、人間が利益と損失を異なる視点で見る傾向をモデル化することが実証的に示されているパラダイムである。
本稿では,自律エージェントが未知の環境で行動を学ぶ必要がある環境について考察する。
エージェントに人間のユーザーの行動を密接に模倣する能力を与えるために、我々はCPTベースのコストを最適化する。
論文 参考訳(メタデータ) (2021-03-29T20:35:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。