論文の概要: Adap-$\tau$: Adaptively Modulating Embedding Magnitude for
Recommendation
- arxiv url: http://arxiv.org/abs/2302.04775v2
- Date: Tue, 21 Mar 2023 08:48:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 00:14:16.996980
- Title: Adap-$\tau$: Adaptively Modulating Embedding Magnitude for
Recommendation
- Title(参考訳): Adap-$\tau$: 推奨のための埋め込みマグニチュードを適応的に調整する
- Authors: Jiawei Chen, Junkang Wu, Jiancan Wu, Sheng Zhou, Xuezhi Cao, Xiangnan
He
- Abstract要約: 本稿では,適応性,パーソナライズ,効率,モデルに依存しない4つの望ましい特性を満たす温度に対するAdap-$tau$の適応戦略を提案する。
実世界の4つのデータセットにおける印象的なパフォーマンス向上(平均9%)を実証的に観察する。
- 参考スコア(独自算出の注目度): 45.462185486200035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the great successes of embedding-based methods in
recommender systems. Despite their decent performance, we argue one potential
limitation of these methods -- the embedding magnitude has not been explicitly
modulated, which may aggravate popularity bias and training instability,
hindering the model from making a good recommendation. It motivates us to
leverage the embedding normalization in recommendation. By normalizing
user/item embeddings to a specific value, we empirically observe impressive
performance gains (9\% on average) on four real-world datasets. Although
encouraging, we also reveal a serious limitation when applying normalization in
recommendation -- the performance is highly sensitive to the choice of the
temperature $\tau$ which controls the scale of the normalized embeddings.
To fully foster the merits of the normalization while circumvent its
limitation, this work studied on how to adaptively set the proper $\tau$.
Towards this end, we first make a comprehensive analyses of $\tau$ to fully
understand its role on recommendation. We then accordingly develop an adaptive
fine-grained strategy Adap-$\tau$ for the temperature with satisfying four
desirable properties including adaptivity, personalized, efficiency and
model-agnostic. Extensive experiments have been conducted to validate the
effectiveness of the proposal. The code is available at
\url{https://github.com/junkangwu/Adap_tau}.
- Abstract(参考訳): 近年,レコメンダシステムにおける組込み型手法が大きな成功を収めている。
適切なパフォーマンスにもかかわらず、これらのメソッドの潜在的な制限 - 埋め込みの規模は明示的に調整されていないため、人気バイアスとトレーニングの不安定性が増し、モデルが良い推奨をすることを妨げる可能性がある、と私たちは主張する。
埋め込み正規化を推奨に活用する動機になります。
ユーザ/イテムの埋め込みを特定の値に正規化することにより、実世界の4つのデータセット上で、印象的なパフォーマンス向上(平均9\%)を経験的に観察する。
また、推奨に正規化を適用する際の深刻な制限も明らかにしています -- 正規化埋め込みのスケールを制御する温度$\tau$の選択に対して、パフォーマンスは極めて敏感です。
正規化のメリットを十分に高めるために、本研究では適切な$\tau$ を適応的に設定する方法を研究した。
この目的に向けて、まず、推奨におけるその役割を完全に理解するために$\tau$の包括的な分析を行います。
そこで我々は,適応性,パーソナライズド,効率性,モデル非依存の4つの望ましい特性を満たす温度適応細粒度戦略adap-$\tau$を開発した。
提案の有効性を検証するために大規模な実験が行われた。
コードは \url{https://github.com/junkangwu/adap_tau} で入手できる。
関連論文リスト
- Dynamic Embedding Size Search with Minimum Regret for Streaming
Recommender System [39.78277554870799]
同一かつ静的な埋め込みサイズの設定は、推奨性能とメモリコストの面で準最適であることを示す。
非定常的な方法でユーザ側とアイテム側の埋め込みサイズ選択を最小化する手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T13:27:18Z) - Submodular Reinforcement Learning [77.97471858326077]
強化学習(RL)では、状態の報酬は通常加法的と見なされ、マルコフの仮定に従って、それらは以前に訪れた状態に対して$textitindependent$である。
カバー範囲制御、実験設計、情報経路計画といった多くの重要な応用において、報酬は自然にリターンを減少させ、すなわち、それらの価値は以前に訪れた同様の状態から減少する。
減少するリターンをキャプチャするサブモジュール集合関数をモデルとした,より汎用的で非付加的(かつ履歴に依存しない)報酬を最適化するパラダイムである$textitsubmodular RL$ (SubRL)を提案する。
論文 参考訳(メタデータ) (2023-07-25T09:46:02Z) - Meta-Learning with Adaptive Weighted Loss for Imbalanced Cold-Start
Recommendation [4.379304291229695]
本稿では,勾配に基づくメタラーニングに基づく新しいシーケンシャルレコメンデーションフレームワークを提案する。
私たちの仕事は、コールドスタートシーケンシャルなレコメンデーションシナリオにおいて、不均衡な評価の影響に最初に取り組みます。
論文 参考訳(メタデータ) (2023-02-28T15:18:42Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Recommendation with User Active Disclosing Willingness [20.306413327597603]
本研究では,ユーザが異なる行動を公開する上で,その「意志」を示すことを許される,新しい推薦パラダイムについて検討する。
我々は,推薦品質とユーザ開示意欲のバランスをとる上で,モデルの有効性を示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-10-25T04:43:40Z) - Generating Self-Serendipity Preference in Recommender Systems for
Addressing Cold Start Problems [9.281057513518498]
セレンディピティー指向のレコメンデーションシステムは,ユーザの自己セレンディピティー嗜好を生成し,レコメンデーション性能を高める。
モデルは、ユーザの興味や満足度を抽出し、仮想的だが信じがたい隣人の好みを自己から生成し、自己セレンディピティーの好みを達成する。
論文 参考訳(メタデータ) (2022-04-27T01:29:47Z) - Where is the Grass Greener? Revisiting Generalized Policy Iteration for
Offline Reinforcement Learning [81.15016852963676]
オフラインRL体制における最先端のベースラインを、公正で統一的で高分解能なフレームワークの下で再実装する。
与えられたベースラインが、スペクトルの一方の端で競合する相手よりも優れている場合、他方の端では決してしないことを示す。
論文 参考訳(メタデータ) (2021-07-03T11:00:56Z) - Control Variates for Slate Off-Policy Evaluation [112.35528337130118]
多次元動作を伴うバッチ化されたコンテキスト帯域データから政治外評価の問題について検討する。
我々は, PIと自己正規化PIの双方に対して, リスク改善を保証した新しい推定器を得る。
論文 参考訳(メタデータ) (2021-06-15T06:59:53Z) - Convolutional Gaussian Embeddings for Personalized Recommendation with
Uncertainty [17.258674767363345]
既存の埋め込みベースのレコメンデーションモデルは、低次元空間における単一の固定点に対応する埋め込みを使用する。
本稿では,不確実な嗜好に適応することが証明されたガウス埋め込みを用いた統合された深層推薦フレームワークを提案する。
本フレームワークでは,モンテカルロサンプリングと畳み込みニューラルネットワークを用いて,対象ユーザと候補項目の相関関係を計算する。
論文 参考訳(メタデータ) (2020-06-19T02:10:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。