論文の概要: Mutual Wasserstein Discrepancy Minimization for Sequential
Recommendation
- arxiv url: http://arxiv.org/abs/2301.12197v1
- Date: Sat, 28 Jan 2023 13:38:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 18:28:55.982800
- Title: Mutual Wasserstein Discrepancy Minimization for Sequential
Recommendation
- Title(参考訳): シーケンシャルレコメンデーションのための相互wasserstein判別最小化
- Authors: Ziwei Fan, Zhiwei Liu, Hao Peng, Philip S Yu
- Abstract要約: 逐次リコメンデーションのためのMutual WasserStein差分最小化MSteinに基づく新しい自己教師型学習フレームワークを提案する。
また,ワッサーシュタイン離散度測定に基づく新しい学習損失を提案する。
- 参考スコア(独自算出の注目度): 82.0801585843835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised sequential recommendation significantly improves
recommendation performance by maximizing mutual information with well-designed
data augmentations. However, the mutual information estimation is based on the
calculation of Kullback Leibler divergence with several limitations, including
asymmetrical estimation, the exponential need of the sample size, and training
instability. Also, existing data augmentations are mostly stochastic and can
potentially break sequential correlations with random modifications. These two
issues motivate us to investigate an alternative robust mutual information
measurement capable of modeling uncertainty and alleviating KL divergence
limitations. To this end, we propose a novel self-supervised learning framework
based on Mutual WasserStein discrepancy minimization MStein for the sequential
recommendation. We propose the Wasserstein Discrepancy Measurement to measure
the mutual information between augmented sequences. Wasserstein Discrepancy
Measurement builds upon the 2-Wasserstein distance, which is more robust, more
efficient in small batch sizes, and able to model the uncertainty of stochastic
augmentation processes. We also propose a novel contrastive learning loss based
on Wasserstein Discrepancy Measurement. Extensive experiments on four benchmark
datasets demonstrate the effectiveness of MStein over baselines. More
quantitative analyses show the robustness against perturbations and training
efficiency in batch size. Finally, improvements analysis indicates better
representations of popular users or items with significant uncertainty. The
source code is at https://github.com/zfan20/MStein.
- Abstract(参考訳): 自己教師付きシーケンシャルレコメンデーションは、よく設計されたデータ拡張による相互情報の最大化により、リコメンデーション性能を著しく向上させる。
しかしながら、相互情報推定は、非対称推定、サンプルサイズの指数的必要性、トレーニング不安定性など、いくつかの制限を伴うkullback leiblerの発散の計算に基づいている。
また、既存のデータ拡張はほとんど確率的であり、ランダムな修正とシーケンシャルな相関を破る可能性がある。
これらの2つの問題は、不確実性をモデル化し、klの分岐制限を緩和できる代替ロバストな相互情報計測について検討する動機付けとなる。
そこで本研究では,シーケンシャルレコメンデーションのための相互wasserstein離散化最小化msteinに基づく,新しい自己教師付き学習フレームワークを提案する。
拡張シーケンス間の相互情報を測定するために,ワッサースタイン離散度測定法を提案する。
Wasserstein Disrepancy Measurementは2-Wasserstein距離の上に構築され、より堅牢で、小さなバッチサイズで効率が良く、確率的増大過程の不確かさをモデル化できる。
また,wassersteinの不一致測定に基づく新しいコントラスト学習損失を提案する。
4つのベンチマークデータセットに関する広範な実験は、ベースラインに対するmsteinの有効性を示している。
より定量的な分析は、バッチサイズでの摂動に対する堅牢性とトレーニング効率を示している。
最後に、改善分析は、大きな不確実性を持つ人気ユーザーやアイテムの表現の改善を示している。
ソースコードはhttps://github.com/zfan20/MSteinにある。
関連論文リスト
- Linked shrinkage to improve estimation of interaction effects in
regression models [0.0]
回帰モデルにおける双方向相互作用項によく適応する推定器を開発する。
我々は,選択戦略では難しい推論モデルの可能性を評価する。
私たちのモデルは、かなり大きなサンプルサイズであっても、ランダムな森林のような、より高度な機械学習者に対して非常に競争力があります。
論文 参考訳(メタデータ) (2023-09-25T10:03:39Z) - Lower Bounds on the Bayesian Risk via Information Measures [17.698319441265223]
マルコフの不等式を介して双対を上界にすることで、あらゆる情報測度でリスクを低くすることができることを示す。
サンプル数における下位境界の挙動は、情報尺度の選択によって影響される。
観測結果が民営化される場合、強いデータ・プロシーシングの不等式により、強い不合理性が得られる。
論文 参考訳(メタデータ) (2023-03-22T12:09:12Z) - Multi-Fidelity Covariance Estimation in the Log-Euclidean Geometry [0.0]
対称正定値多様体の対数ユークリッド幾何学を利用する共分散行列の多値推定器を導入する。
固定予算が与えられた推定器の平均二乗誤差を最小化する最適サンプル割り当て方式を開発した。
物理アプリケーションからのデータによるアプローチの評価は、ベンチマークと比較すると、より正確なメトリック学習と1桁以上のスピードアップを示している。
論文 参考訳(メタデータ) (2023-01-31T16:33:46Z) - Convergence of uncertainty estimates in Ensemble and Bayesian sparse
model discovery [4.446017969073817]
ブートストラップに基づく逐次しきい値最小二乗推定器による雑音に対する精度と頑健性の観点から経験的成功を示す。
このブートストラップに基づくアンサンブル手法は,誤差率の指数収束率で,確率的に正しい可変選択を行うことができることを示す。
論文 参考訳(メタデータ) (2023-01-30T04:07:59Z) - Composed Image Retrieval with Text Feedback via Multi-grained
Uncertainty Regularization [73.04187954213471]
粗い検索ときめ細かい検索を同時にモデル化する統合学習手法を提案する。
提案手法は、強いベースラインに対して+4.03%、+3.38%、+2.40%のRecall@50精度を達成した。
論文 参考訳(メタデータ) (2022-11-14T14:25:40Z) - A Statistical Analysis of Summarization Evaluation Metrics using
Resampling Methods [60.04142561088524]
信頼区間は比較的広く,信頼性の高い自動測定値の信頼性に高い不確実性を示す。
多くのメトリクスはROUGEよりも統計的改善を示していないが、QAEvalとBERTScoreという2つの最近の研究は、いくつかの評価設定で行われている。
論文 参考訳(メタデータ) (2021-03-31T18:28:14Z) - Neural Methods for Point-wise Dependency Estimation [129.93860669802046]
我々は,2つの結果が共起する確率を定量的に測定する点依存度(PD)の推定に焦点をあてる。
提案手法の有効性を,1)MI推定,2)自己教師付き表現学習,3)クロスモーダル検索タスクで示す。
論文 参考訳(メタデータ) (2020-06-09T23:26:15Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z) - Disentangled Representation Learning with Wasserstein Total Correlation [90.44329632061076]
本稿では,変分オートエンコーダとワッサースタインオートエンコーダの設定に総相関を導入し,非絡み付き潜在表現を学習する。
批評家は、ワッサーシュタインの総相関項を推定する主な目的と共に、敵対的に訓練される。
提案手法は, 再建能力の犠牲が小さく, 絡み合いに匹敵する性能を有することを示す。
論文 参考訳(メタデータ) (2019-12-30T05:31:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。