論文の概要: Simulating Filter Bubble on Short-video Recommender System with Large Language Model Agents
- arxiv url: http://arxiv.org/abs/2504.08742v1
- Date: Sun, 23 Mar 2025 10:35:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-20 06:33:23.243332
- Title: Simulating Filter Bubble on Short-video Recommender System with Large Language Model Agents
- Title(参考訳): 大規模言語モデルエージェントを用いたショートビデオレコメンダシステムにおけるフィルタ気泡のシミュレーション
- Authors: Nicholas Sukiennik, Haoyu Wang, Zailin Zeng, Chen Gao, Yong Li,
- Abstract要約: 本稿では,大規模言語モデルに基づくシミュレーションフレームワークを用いて,推薦アルゴリズムとユーザフィードバックのダイナミクスを明らかにする。
我々は、コンテンツ均質化を悪化させる人口動態の特徴やカテゴリーアトラクションなどの重要な要因を同定する。
我々は、女性や低所得者などの脆弱なグループに対する株式の保護について提案する。
- 参考スコア(独自算出の注目度): 24.570722028960844
- License:
- Abstract: An increasing reliance on recommender systems has led to concerns about the creation of filter bubbles on social media, especially on short video platforms like TikTok. However, their formation is still not entirely understood due to the complex dynamics between recommendation algorithms and user feedback. In this paper, we aim to shed light on these dynamics using a large language model-based simulation framework. Our work employs real-world short-video data containing rich video content information and detailed user-agents to realistically simulate the recommendation-feedback cycle. Through large-scale simulations, we demonstrate that LLMs can replicate real-world user-recommender interactions, uncovering key mechanisms driving filter bubble formation. We identify critical factors, such as demographic features and category attraction that exacerbate content homogenization. To mitigate this, we design and test interventions including various cold-start and feedback weighting strategies, showing measurable reductions in filter bubble effects. Our framework enables rapid prototyping of recommendation strategies, offering actionable solutions to enhance content diversity in real-world systems. Furthermore, we analyze how LLM-inherent biases may propagate through recommendations, proposing safeguards to promote equity for vulnerable groups, such as women and low-income populations. By examining the interplay between recommendation and LLM agents, this work advances a deeper understanding of algorithmic bias and provides practical tools to promote inclusive digital spaces.
- Abstract(参考訳): 推薦システムへの依存度が高まると、ソーシャルメディア、特にTikTokのようなショートビデオプラットフォームにおけるフィルターバブルの発生が懸念されている。
しかし、レコメンデーションアルゴリズムとユーザフィードバックの複雑なダイナミクスのため、それらの構成は完全には理解されていない。
本稿では,大規模言語モデルに基づくシミュレーションフレームワークを用いて,これらのダイナミクスを軽視することを目的としている。
本研究では,リッチビデオコンテンツ情報と詳細なユーザエージェントを含む実世界のショートビデオデータを用いて,リコメンデーションフィードバックサイクルを現実的にシミュレートする。
大規模シミュレーションにより,LLMは実世界のユーザ-レコメンダ間相互作用を再現し,フィルタバブル形成を駆動する鍵機構を明らかにする。
我々は、コンテンツ均質化を悪化させる人口動態の特徴やカテゴリーアトラクションなどの重要な要因を同定する。
これを軽減するために, 様々な冷間始動およびフィードバック重み付け戦略を含む介入の設計と試験を行い, フィルタバブル効果の測定可能な低減効果を示す。
本フレームワークは,レコメンデーション戦略の迅速なプロトタイピングを可能にし,現実のシステムにおけるコンテンツ多様性を高めるための実用的なソリューションを提供する。
さらに,女性や低所得層などの脆弱なグループに対する株式の保有を促進するための保護策を提案し,レコメンデーションを通じてLLM-インヒーレントバイアスがどのように伝播するかを分析した。
この研究は、レコメンデーションとLLMエージェントの相互作用を調べることによって、アルゴリズムバイアスをより深く理解し、包括的デジタル空間を促進するための実用的なツールを提供する。
関連論文リスト
- RecLM: Recommendation Instruction Tuning [17.780484832381994]
本稿では,大規模言語モデルと協調フィルタリングをシームレスに統合するモデル非依存の指導訓練パラダイムを提案する。
提案した$underlineRec$ommendationは、慎重に設計された強化学習報酬関数により、ユーザの好みの多様性を捕捉する。
論文 参考訳(メタデータ) (2024-12-26T17:51:54Z) - Improving Dynamic Object Interactions in Text-to-Video Generation with AI Feedback [130.090296560882]
テキスト・ビデオ・モデルにおけるオブジェクトの動的性を高めるためのフィードバックの利用について検討する。
本手法は,動的インタラクションにおける映像品質の大幅な向上を駆動するバイナリAIフィードバックを用いて,多様な報酬を効果的に最適化できることを示す。
論文 参考訳(メタデータ) (2024-12-03T17:44:23Z) - Large Language Models as Narrative-Driven Recommenders [0.051205673783866146]
大規模言語モデル(LLM)は、一般的な自然言語クエリの処理に優れていることが示されている。
映画レコメンデーション設定において,38個のオープンソース LLM とクローズドソース LLM のパフォーマンスを比較した。
以上の結果から,LLMがコンテキストに関連のある映画レコメンデーションを生成できることが示唆された。
論文 参考訳(メタデータ) (2024-10-17T14:39:24Z) - ST-LLM: Large Language Models Are Effective Temporal Learners [58.79456373423189]
大規模言語モデル(LLM)は、テキストの理解と生成において印象的な能力を示した。
ビデオベースの対話システムでビデオを効果的にエンコードし、理解する方法は、まだ解決されていない。
LLM内部の時空間シーケンスをモデル化したビデオLLMベースラインST-LLMを提案する。
論文 参考訳(メタデータ) (2024-03-30T10:11:26Z) - Mirror Gradient: Towards Robust Multimodal Recommender Systems via
Exploring Flat Local Minima [54.06000767038741]
フラットローカルミニマの新しい視点からマルチモーダルリコメンデータシステムの解析を行う。
我々はミラーグラディエント(MG)と呼ばれる簡潔で効果的な勾配戦略を提案する。
提案したMGは、既存の堅牢なトレーニング手法を補完し、多様な高度なレコメンデーションモデルに容易に拡張できることが判明した。
論文 参考訳(メタデータ) (2024-02-17T12:27:30Z) - DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z) - Representation Learning with Large Language Models for Recommendation [33.040389989173825]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - CRaSh: Clustering, Removing, and Sharing Enhance Fine-tuning without
Full Large Language Model [22.870512676002463]
本稿では,集中型LCMと下流エミュレータ間でトランスフォーマブロックを転送する代表的手法であるOffsite-Tuning(OFT)に焦点を当てる。
これらの観測にインスパイアされたCRaShは、LCMから改善エミュレータを導出するトレーニングフリー戦略であるClustering、Removing、Sharingを含む。
以上の結果から,CRaShとOFTの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-10-24T03:08:58Z) - On Generative Agents in Recommendation [58.42840923200071]
Agent4Recは、Large Language Modelsに基づいたレコメンデーションのユーザーシミュレータである。
各エージェントは、ページ単位でパーソナライズされた推奨モデルと対話する。
論文 参考訳(メタデータ) (2023-10-16T06:41:16Z) - Harnessing Heterogeneity: Learning from Decomposed Feedback in Bayesian
Modeling [68.69431580852535]
サブグループフィードバックを取り入れた新しいGPレグレッションを導入する。
我々の修正された回帰は、以前のアプローチと比べて、明らかにばらつきを減らし、したがってより正確な後続を減らした。
我々は2つの異なる社会問題に対してアルゴリズムを実行する。
論文 参考訳(メタデータ) (2021-07-07T03:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。