論文の概要: Echoes in the Loop: Diagnosing Risks in LLM-Powered Recommender Systems under Feedback Loops
- arxiv url: http://arxiv.org/abs/2602.07442v1
- Date: Sat, 07 Feb 2026 08:45:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.62484
- Title: Echoes in the Loop: Diagnosing Risks in LLM-Powered Recommender Systems under Feedback Loops
- Title(参考訳): ループ中のエコー:フィードバックループ下でのLCM駆動リコメンダシステムのリスク診断
- Authors: Donguk Park, Dongwon Lee, Yeon-Chang Lee,
- Abstract要約: 大規模言語モデル(LLM)は、ますますレコメンデーションシステムに組み込まれ、複数の機能的な役割にわたって機能する。
本稿では、これらのリスクがどのように出現し、ランキング結果に現れ、繰り返しレコメンデーションサイクルに蓄積されるかを追跡する役割認識型段階診断フレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.602190719994768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are increasingly embedded into recommender systems, where they operate across multiple functional roles such as data augmentation, profiling, and decision making. While prior work emphasizes recommendation performance, the systemic risks of LLMs, such as bias and hallucination, and their propagation through feedback loops remain largely unexplored. In this paper, we propose a role-aware, phase-wise diagnostic framework that traces how these risks emerge, manifest in ranking outcomes, and accumulate over repeated recommendation cycles. We formalize a controlled feedback-loop pipeline that simulates long-term interaction dynamics and enables empirical measurement of risks at the LLM-generated content, ranking, and ecosystem levels. Experiments on widely used benchmarks demonstrate that LLM-based components can amplify popularity bias, introduce spurious signals through hallucination, and lead to polarized and self-reinforcing exposure patterns over time. We plan to release our framework as an open-source toolkit to facilitate systematic risk analysis across diverse LLM-powered recommender systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、データ拡張、プロファイリング、意思決定など、複数の機能的な役割にまたがって機能するレコメンデーションシステムに組み込まれている。
先行研究はレコメンデーション性能を強調しているが, 偏見や幻覚などのLLMのシステム的リスクや, フィードバックループによる伝播は未解明のままである。
本稿では、これらのリスクがどのように出現し、ランキング結果に現れ、繰り返しレコメンデーションサイクルに蓄積するかをトレースする役割認識型段階診断フレームワークを提案する。
制御されたフィードバックループパイプラインを形式化し、長期的相互作用のダイナミクスをシミュレートし、LLM生成コンテンツ、ランキング、生態系レベルのリスクを実証的に測定する。
広く使用されているベンチマークの実験では、LSMベースのコンポーネントは人気バイアスを増幅し、幻覚を通して刺激的なシグナルを導入し、時間とともに偏光および自己強化の露光パターンをもたらすことが示されている。
我々は,多種多様なLSMを利用したレコメンデータシステムにおいて,リスク分析の体系化を促進するためのオープンソースツールキットとして,我々のフレームワークをリリースする計画である。
関連論文リスト
- Enhancing Sequential Recommendation with World Knowledge from Large Language Models [35.436916487752285]
GRASPは、合成と類似性検索のための生成拡張検索を統合するフレキシブルなフレームワークである。
検索された類似ユーザ/イテムは、後続の全体的注目強化モジュールの補助的なコンテキスト情報として機能する。
GraSPは、さまざまなバックボーンと統合することで、最先端のパフォーマンスを一貫して達成します。
論文 参考訳(メタデータ) (2025-11-25T10:59:38Z) - Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - Cognitive Biases in Large Language Models for News Recommendation [68.90354828533535]
本稿では,認知バイアスが大規模言語モデル(LLM)に基づくニュースレコメンデータシステムに与える影響について検討する。
データ拡張、エンジニアリングと学習アルゴリズムの側面を通じて、これらのバイアスを軽減する戦略について議論する。
論文 参考訳(メタデータ) (2024-10-03T18:42:07Z) - Mitigating Propensity Bias of Large Language Models for Recommender Systems [20.823461673845756]
我々は,CLLMR(Counterfactual LLM Recommendation)という新しいフレームワークを紹介する。
本稿では,歴史的相互作用から得られた構造情報をサイド情報表現に暗黙的に埋め込むスペクトルベースのサイド情報エンコーダを提案する。
我々の CLLMR アプローチは LLM ベースのレコメンデータシステムに固有の因果関係を探索する。
論文 参考訳(メタデータ) (2024-09-30T07:57:13Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - LoRec: Large Language Model for Robust Sequential Recommendation against Poisoning Attacks [60.719158008403376]
本研究は,リコメンデータシステムにおける未知の不正行為の検出におけるLarge Language Models(LLM)の機能に着目した。
逐次リコメンデータシステムのロバスト性を高めるため,LLM強化を利用した高度なフレームワークであるLoRecを提案する。
総合的な実験により、LoRecは一般的なフレームワークとして、シーケンシャルなレコメンデータシステムの堅牢性を大幅に強化することを示した。
論文 参考訳(メタデータ) (2024-01-31T10:35:53Z) - Large Language Models are Not Stable Recommender Systems [45.941176155464824]
大規模言語モデル(LLM)における探索的研究の導入と位置バイアスの一貫したパターンの発見について述べる。
本稿では,2段階パイプラインを含むベイズ確率的フレームワークSTELLA(Stable LLM for Recommendation)を提案する。
我々のフレームワークは、既存のパターン情報を利用してLCMの不安定性を校正し、レコメンデーション性能を向上させることができる。
論文 参考訳(メタデータ) (2023-12-25T14:54:33Z) - Empowering Few-Shot Recommender Systems with Large Language Models --
Enhanced Representations [0.0]
大規模言語モデル(LLM)は、明示的なフィードバックベースのレコメンデータシステムで遭遇する少数のシナリオに対処するための、新たな洞察を提供する。
我々の研究は、LLMがレコメンデーターシステムに関わっていることの多面的側面を深く掘り下げるために、研究者に刺激を与えることができる。
論文 参考訳(メタデータ) (2023-12-21T03:50:09Z) - DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。