論文の概要: RuleAgent: Discovering Rules for Recommendation Denoising with Autonomous Language Agents
- arxiv url: http://arxiv.org/abs/2503.23374v1
- Date: Sun, 30 Mar 2025 09:19:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.091996
- Title: RuleAgent: Discovering Rules for Recommendation Denoising with Autonomous Language Agents
- Title(参考訳): RuleAgent: 自律言語エージェントによる推薦ルールの発見
- Authors: Zongwei Wang, Min Gao, Junliang Yu, Yupeng Hou, Shazia Sadiq, Hongzhi Yin,
- Abstract要約: RuleAgentは、現実世界のデータエキスパートを模倣して、レコメンデーションのルールを自律的に発見する。
LossEraser-非学習戦略は、パフォーマンスを損なうことなく、トレーニングを合理化する。
- 参考スコア(独自算出の注目度): 36.31706728494194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The implicit feedback (e.g., clicks) in real-world recommender systems is often prone to severe noise caused by unintentional interactions, such as misclicks or curiosity-driven behavior. A common approach to denoising this feedback is manually crafting rules based on observations of training loss patterns. However, this approach is labor-intensive and the resulting rules often lack generalization across diverse scenarios. To overcome these limitations, we introduce RuleAgent, a language agent based framework which mimics real-world data experts to autonomously discover rules for recommendation denoising. Unlike the high-cost process of manual rule mining, RuleAgent offers rapid and dynamic rule discovery, ensuring adaptability to evolving data and varying scenarios. To achieve this, RuleAgent is equipped with tailored profile, memory, planning, and action modules and leverages reflection mechanisms to enhance its reasoning capabilities for rule discovery. Furthermore, to avoid the frequent retraining in rule discovery, we propose LossEraser-an unlearning strategy that streamlines training without compromising denoising performance. Experiments on benchmark datasets demonstrate that, compared with existing denoising methods, RuleAgent not only derives the optimal recommendation performance but also produces generalizable denoising rules, assisting researchers in efficient data cleaning.
- Abstract(参考訳): 現実世界のレコメンデータシステムにおける暗黙のフィードバック(例えばクリック)は、しばしば、ミスクリックや好奇心駆動行動のような意図しない相互作用によって引き起こされる激しいノイズを引き起こす。
このフィードバックを飾る一般的なアプローチは、トレーニング損失パターンの観察に基づいてルールを手作業で作成することです。
しかし、このアプローチは労働集約的であり、結果として生じる規則は様々なシナリオにまたがる一般化を欠いていることが多い。
これらの制限を克服するために,実世界のデータ専門家を模倣した言語エージェントベースのフレームワークであるRe RuleAgentを導入し,レコメンデーションのルールを自律的に発見する。
ルールアジェントは、手動のルールマイニングの高コストプロセスとは異なり、迅速でダイナミックなルール発見を提供し、進化するデータやさまざまなシナリオへの適応性を保証する。
これを実現するために、 RuleAgentはプロファイル、メモリ、プランニング、アクションモジュールを備えており、リフレクション機構を活用してルール発見の推論機能を強化する。
さらに,ルール発見における頻繁な再学習を避けるために,学習を効率化し,性能を損なうことなく学習を効率化するLosEraserを提案する。
ベンチマークデータセットの実験では、既存の denoising 手法と比較して、 RuleAgent は最適なレコメンデーションパフォーマンスを導出するだけでなく、一般化可能な denoising ルールも生成し、研究者が効率的なデータクリーニングを支援することが示されている。
関連論文リスト
- Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - InstructRAG: Instructing Retrieval-Augmented Generation via Self-Synthesized Rationales [14.655518998487237]
InstructRAGを提案する。そこでは、LMが自己合成的理性を通して認知過程を明示的に学習する。
インストラクションRAGは追加の監視を必要としないため、予測された回答の検証が容易になる。
実験によると、InstructRAGはトレーニング不要とトレーニング可能な両方のシナリオにおいて、既存のRAGメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2024-06-19T15:25:29Z) - Rule By Example: Harnessing Logical Rules for Explainable Hate Speech
Detection [13.772240348963303]
Rule By Example(RBE)は、テキストコンテンツモデレーションのタスクに対する論理規則から学習するための、新規なコントラスト学習手法である。
RBEはルール基底の予測を提供することができ、典型的なディープラーニングベースのアプローチと比較して説明可能でカスタマイズ可能な予測を可能にする。
論文 参考訳(メタデータ) (2023-07-24T16:55:37Z) - Iteratively Refined Behavior Regularization for Offline Reinforcement
Learning [57.10922880400715]
本稿では,保守的政策反復に基づく行動規則化を大幅に強化する新しいアルゴリズムを提案する。
行動規則化に使用される基準ポリシーを反復的に洗練することにより、保守的な政策更新は徐々に改善される。
D4RLベンチマークの実験結果から,本手法は従来のタスクのベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-06-09T07:46:24Z) - Computationally Efficient Reinforcement Learning: Targeted Exploration
leveraging Simple Rules [1.124958340749622]
本稿では,このようなルールを組み込むための,連続的アクター批判フレームワークの簡易かつ効果的な修正を提案する。
室内温度制御のケーススタディでは、エージェントは古典的なエージェントよりも最大6~7倍の速さで優れたポリシーに収束することができる。
論文 参考訳(メタデータ) (2022-11-30T02:24:42Z) - Let Offline RL Flow: Training Conservative Agents in the Latent Space of
Normalizing Flows [58.762959061522736]
オフライン強化学習は、追加の環境相互作用なしに、事前に記録された、固定されたデータセット上でポリシーをトレーニングすることを目的としている。
我々は、最近、潜在行動空間における学習ポリシーを基礎として、生成モデルの構築に正規化フローの特別な形式を用いる。
提案手法が最近提案したアルゴリズムより優れていることを示すため,様々な移動タスクとナビゲーションタスクについて評価を行った。
論文 参考訳(メタデータ) (2022-11-20T21:57:10Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Learning Sparsity-Promoting Regularizers using Bilevel Optimization [9.18465987536469]
本稿では,信号や画像の識別のための疎結合型正規化器の教師あり学習法を提案する。
構造化された1D信号と自然画像を用いて実験したところ,提案手法はよく知られた正規化器よりも優れた演算子を学習できることがわかった。
論文 参考訳(メタデータ) (2022-07-18T20:50:02Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Learning from Rules Generalizing Labeled Exemplars [21.359456842579945]
多くのアプリケーションでは、ラベル付きデータは簡単には利用できない。
本稿では,ルールの効率と事例ラベルの品質を組み合わせ,人間の監督を収集するルール実証手法を提案する。
論文 参考訳(メタデータ) (2020-04-13T15:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。