論文の概要: PersonaAct: Simulating Short-Video Users with Personalized Agents for Counterfactual Filter Bubble Auditing
- arxiv url: http://arxiv.org/abs/2601.22547v1
- Date: Fri, 30 Jan 2026 04:38:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.224212
- Title: PersonaAct: Simulating Short-Video Users with Personalized Agents for Counterfactual Filter Bubble Auditing
- Title(参考訳): PersonaAct: 対物フィルターバブル監査のためのパーソナライズされたエージェントによるショートビデオユーザのシミュレート
- Authors: Shilong Zhao, Qinggang Yang, Zhiyi Yin, Xiaoshi Wang, Zhenxing Chen, Du Su, Xueqi Cheng,
- Abstract要約: PersonaActは、実行動トレースに基づいて訓練されたペルソナ条件のマルチモーダルエージェントでショートビデオユーザーをシミュレートするフレームワークである。
本研究では,フィルタバブル監査のための訓練エージェントを配置し,コンテントの多様性とエスケープ電位による気泡深さの評価を行った。
- 参考スコア(独自算出の注目度): 38.594173718812435
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Short-video platforms rely on personalized recommendation, raising concerns about filter bubbles that narrow content exposure. Auditing such phenomena at scale is challenging because real user studies are costly and privacy-sensitive, and existing simulators fail to reproduce realistic behaviors due to their reliance on textual signals and weak personalization. We propose PersonaAct, a framework for simulating short-video users with persona-conditioned multimodal agents trained on real behavioral traces for auditing filter bubbles in breadth and depth. PersonaAct synthesizes interpretable personas through automated interviews combining behavioral analysis with structured questioning, then trains agents on multimodal observations using supervised fine-tuning and reinforcement learning. We deploy trained agents for filter bubble auditing and evaluate bubble breadth via content diversity and bubble depth via escape potential. The evaluation demonstrates substantial improvements in fidelity over generic LLM baselines, enabling realistic behavior reproduction. Results reveal significant content narrowing over interaction. However, we find that Bilibili demonstrates the strongest escape potential. We release the first open multimodal short-video dataset and code to support reproducible auditing of recommender systems.
- Abstract(参考訳): 短いビデオプラットフォームはパーソナライズされたレコメンデーションに依存しており、コンテンツの露出を狭めるフィルターバブルへの懸念を高めている。
このような現象を大規模に監査することは、実際のユーザスタディはコストが高くプライバシーに敏感であり、既存のシミュレータは、テキスト信号への依存や個人化の弱さにより、現実的な振る舞いを再現できないため、難しい。
提案するPersonaActは,フィルタバブルを広帯域・深度で監査するための実行動トレースを訓練したペルソナ条件のマルチモーダルエージェントを用いて,ショートビデオユーザをシミュレートするフレームワークである。
PersonaActは、行動分析と構造化質問とを組み合わせた自動面接を通じて解釈可能なペルソナを合成し、教師付き微調整と強化学習を用いてマルチモーダル観察のエージェントを訓練する。
本研究では,フィルターバブル監査のための訓練エージェントを配置し,コンテントの多様性とエスケープ電位による気泡深さの評価を行った。
本評価は, ジェネリックLCMベースラインよりも忠実度が大幅に向上し, 現実的な行動再現が可能となった。
その結果、相互作用よりもコンテンツが狭まることが明らかとなった。
しかし、ビリビリが最強の脱出可能性を示すことが判明した。
我々は,レコメンダシステムの再現可能な監査を支援するための,最初のオープンなマルチモーダルショートビデオデータセットとコードをリリースした。
関連論文リスト
- Graphing the Truth: Structured Visualizations for Automated Hallucination Detection in LLMs [0.0]
本稿では,プロプライエタリな知識とモデル生成コンテンツをインタラクティブな視覚的知識グラフにまとめるフレームワークを提案する。
ユーザは不整合を診断し、弱い推論チェーンを特定し、修正フィードバックを提供する。
論文 参考訳(メタデータ) (2025-11-29T23:09:15Z) - Quantifying the Potential to Escape Filter Bubbles: A Behavior-Aware Measure via Contrastive Simulation [82.74100448579857]
本稿では,バブルエスケープポテンシャル(Bubble Escape Potential, BEP)を紹介する。
予測精度と気泡流出電位の関係を検討するため,複数の推薦モデルにまたがる広範囲な実験を行った。
論文 参考訳(メタデータ) (2025-11-27T07:21:04Z) - Evaluating from Benign to Dynamic Adversarial: A Squid Game for Large Language Models [57.33350664910483]
資源制約と非対称な情報設定を備えた動的・対角的評価環境であるSquid Gameを紹介する。
我々は,Squid Game 上で50以上の LLM を評価し,動的対向シナリオにおける一般 LLM の行動評価研究を最大規模で行った。
論文 参考訳(メタデータ) (2025-11-12T06:06:29Z) - See, Think, Act: Online Shopper Behavior Simulation with VLM Agents [58.92444959954643]
本稿では,視覚情報,特にWebページスクリーンショットのVLMによる動作シミュレーションへの統合について検討する。
我々は,協調行動予測と合理化生成にSFTを用いて,相互作用の完全な文脈を条件づける。
推論能力をさらに強化するため,RLを階層的な報酬構造と統合し,難易度因子によって拡張する。
論文 参考訳(メタデータ) (2025-10-22T05:07:14Z) - PUB: An LLM-Enhanced Personality-Driven User Behaviour Simulator for Recommender System Evaluation [9.841963696576546]
Personality-driven User Behaviour Simulator (PUB)は、パーソナライズされたユーザの振る舞いをモデル化するために、Big Fiveのパーソナリティ特性を統合している。
PUBは、行動ログ(例えば、評価、レビュー)とアイテムメタデータからユーザーの個性を動的に推論し、その後、実際のデータに対する統計的忠実性を保存するための合成相互作用を生成する。
Amazonレビューデータセットの実験では、PUBが生成したログは実際のユーザの行動と密接に一致し、パーソナリティ特性とレコメンデーション結果の間に有意義な関連性を明らかにする。
論文 参考訳(メタデータ) (2025-06-05T01:57:36Z) - Simulating Filter Bubble on Short-video Recommender System with Large Language Model Agents [24.570722028960844]
本稿では,大規模言語モデルに基づくシミュレーションフレームワークを用いて,推薦アルゴリズムとユーザフィードバックのダイナミクスを明らかにする。
我々は、コンテンツ均質化を悪化させる人口動態の特徴やカテゴリーアトラクションなどの重要な要因を同定する。
我々は、女性や低所得者などの脆弱なグループに対する株式の保護について提案する。
論文 参考訳(メタデータ) (2025-03-23T10:35:58Z) - CreAgent: Towards Long-Term Evaluation of Recommender System under Platform-Creator Information Asymmetry [55.64992650205645]
大規模言語モデルを用いたクリエーターシミュレーションエージェントであるCreAgentを提案する。
ゲーム理論の信念機構と高速でスローな思考フレームワークを取り入れることで、CreAgentはクリエーターの振る舞いを効果的にシミュレートする。
私たちの信頼性検証実験は、CreAgentが現実世界のプラットフォームとクリエーターの行動とよく一致していることを示している。
論文 参考訳(メタデータ) (2025-02-11T07:09:49Z) - How Reliable is Your Simulator? Analysis on the Limitations of Current LLM-based User Simulators for Conversational Recommendation [14.646529557978512]
本稿では,対話型レコメンダシステムのためのユーザシミュレータ構築におけるLarge Language Modelsの使用制限について分析する。
会話履歴やユーザシミュレータの応答で発生するデータ漏洩は,評価結果を膨らませる結果となる。
そこで我々はSimpleUserSimを提案する。
論文 参考訳(メタデータ) (2024-03-25T04:21:06Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。