論文の概要: RMBRec: Robust Multi-Behavior Recommendation towards Target Behaviors
- arxiv url: http://arxiv.org/abs/2601.08705v3
- Date: Wed, 21 Jan 2026 17:02:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 14:56:59.97296
- Title: RMBRec: Robust Multi-Behavior Recommendation towards Target Behaviors
- Title(参考訳): RMBRec:目標行動に対するロバストなマルチ行動勧告
- Authors: Miaomiao Cai, Zhijie Zhang, Junfeng Fang, Zhiyong Cheng, Xiang Wang, Meng Wang,
- Abstract要約: ターゲット行動に対するロバスト多行動勧告(RMBRec)を提案する。
RMBRecは、情報理論の堅牢性原理に基づく、堅牢なマルチビヘイビアレコメンデーションフレームワークである。
RMBRecは最先端の手法よりも精度が高く,様々なノイズ摂動下では顕著な安定性を維持している。
- 参考スコア(独自算出の注目度): 26.88506691092044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-behavior recommendation faces a critical challenge in practice: auxiliary behaviors (e.g., clicks, carts) are often noisy, weakly correlated, or semantically misaligned with the target behavior (e.g., purchase), which leads to biased preference learning and suboptimal performance. While existing methods attempt to fuse these heterogeneous signals, they inherently lack a principled mechanism to ensure robustness against such behavioral inconsistency. In this work, we propose Robust Multi-Behavior Recommendation towards Target Behaviors (RMBRec), a robust multi-behavior recommendation framework grounded in an information-theoretic robustness principle. We interpret robustness as a joint process of maximizing predictive information while minimizing its variance across heterogeneous behavioral environments. Under this perspective, the Representation Robustness Module (RRM) enhances local semantic consistency by maximizing the mutual information between users' auxiliary and target representations, whereas the Optimization Robustness Module (ORM) enforces global stability by minimizing the variance of predictive risks across behaviors, which is an efficient approximation to invariant risk minimization. This local-global collaboration bridges representation purification and optimization invariance in a theoretically coherent way. Extensive experiments on three real-world datasets demonstrate that RMBRec not only outperforms state-of-the-art methods in accuracy but also maintains remarkable stability under various noise perturbations. For reproducibility, our code is available at https://github.com/miaomiao-cai2/RMBRec/.
- Abstract(参考訳): 補助的な行動(例えば、クリック、カート)は、しばしばうるさい、弱い相関関係にある、あるいは、目的の行動(例えば、購入)と意味的に不一致している。
既存の手法はこれらの不均一な信号を融合させようとするが、それらは本質的にそのような行動の不整合に対して堅牢性を確保するための原則的なメカニズムを欠いている。
本稿では,情報理論的ロバスト性原理に基づくロバスト多行動勧告(RMBRec)を提案する。
我々は、不均一な行動環境におけるその分散を最小化しつつ、予測情報を最大化する共同プロセスとしてロバストネスを解釈する。
この観点から、Representation Robustness Module(RRM)は、ユーザの補助的表現とターゲット的表現の相互情報を最大化することで局所的な意味的一貫性を高める一方、Optimization Robustness Module(ORM)は、行動間の予測リスクの分散を最小化することにより、グローバルな安定性を強制する。
この局所的なコラボレーティブブリッジは、理論的に一貫性のある方法で純粋化と最適化の不変性を表現している。
実世界の3つのデータセットに対する大規模な実験は、RMBRecが最先端の手法を精度で上回るだけでなく、様々なノイズ摂動の下で顕著な安定性を維持することを示した。
再現性については、https://github.com/miaomiao-cai2/RMBRec/.com/で確認できます。
関連論文リスト
- HiFIRec: Towards High-Frequency yet Low-Intention Behaviors for Multi-Behavior Recommendation [10.558247582357783]
HiFIRecは、新しいマルチ行動レコメンデーション手法である。
差動挙動モデリングにより,高周波かつ低意図動作の効果を補正する。
2つのベンチマークの実験では、HiFIRecはいくつかの最先端手法に比べてHR@10を4.21%-6.81%改善している。
論文 参考訳(メタデータ) (2025-09-30T04:20:45Z) - MGSC: A Multi-granularity Consistency Framework for Robust End-to-end Asr [0.0]
我々は、内部の自己整合性を強制するモデルに依存しないプラグイン・アンド・プレイモジュールであるMulti-Granularity Soft Consistencyフレームワークを紹介する。
私たちの研究は、この2つの一貫性の粒度の強力な相乗効果を初めて明らかにしました。
私たちの研究は、より堅牢で信頼性の高いAIを構築するための重要なステップとして、内部一貫性の実施を実証しています。
論文 参考訳(メタデータ) (2025-08-20T09:51:49Z) - I$^3$-MRec: Invariant Learning with Information Bottleneck for Incomplete Modality Recommendation [56.55935146424585]
textbfIncomplete textbfModality textbfRecommendation の textbfInformation ボトルネック原理を用いて学習する textbfI$3$-MRec を紹介する。
それぞれのモダリティを異なる意味環境として扱うことで、I$3$-MRecは、優先指向の表現を学習するために不変リスク最小化(IRM)を採用する。
I$3$-MRecは、様々なモダリティ欠落シナリオにおいて、既存の最先端MSSメソッドを一貫して上回る
論文 参考訳(メタデータ) (2025-08-06T09:29:50Z) - Online Robust Multi-Agent Reinforcement Learning under Model Uncertainties [10.054572105379425]
十分に訓練されたマルチエージェントシステムは、実環境にデプロイされた時にフェールする可能性がある。
DRMGは、定義された環境不確実性のセットに対して最悪のケースパフォーマンスを最適化することで、システムのレジリエンスを高める。
本稿では、DRMGにおけるオンライン学習の先駆者であり、エージェントは事前データなしで環境相互作用から直接学習する。
論文 参考訳(メタデータ) (2025-08-04T23:14:32Z) - Robust and Computation-Aware Gaussian Processes [20.948688720498644]
本稿では,近似による不確実性の原理的処理と強一般化ベイズ更新を組み合わせた新しいGPモデルであるRobust Computation-Aware Gaussian Process (RCaGP)を紹介する。
私たちのモデルは、より保守的で信頼性の高い不確実性評価を確実にします。
実験の結果、これらの課題を共同で解決することで、クリーンな設定とアウターな設定の両方で優れたパフォーマンスが得られることが確認された。
論文 参考訳(メタデータ) (2025-05-27T12:49:14Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。