論文の概要: Quaternion-Based Self-Attentive Long Short-Term User Preference Encoding
for Recommendation
- arxiv url: http://arxiv.org/abs/2008.13335v1
- Date: Mon, 31 Aug 2020 03:22:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 06:36:24.527243
- Title: Quaternion-Based Self-Attentive Long Short-Term User Preference Encoding
for Recommendation
- Title(参考訳): 推薦のための四分法に基づく自己注意型長期ユーザ嗜好エンコーディング
- Authors: Thanh Tran, Di You, Kyumin Lee
- Abstract要約: 四元数空間は、伝統的なユークリッド空間に対していくつかの利点をもたらした。
現在のレコメンデーターシステムは、ユークリッド空間における実際の価値ある表現に頼り、ユーザの長期的な関心や短期的な関心をモデル化している。
本稿では,QUaternion をベースとした自己認識型短期ユーザ QUASE を提案し,ユーザの短期的関心を学習する。
- 参考スコア(独自算出の注目度): 8.848895036534769
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quaternion space has brought several benefits over the traditional Euclidean
space: Quaternions (i) consist of a real and three imaginary components,
encouraging richer representations; (ii) utilize Hamilton product which better
encodes the inter-latent interactions across multiple Quaternion components;
and (iii) result in a model with smaller degrees of freedom and less prone to
overfitting. Unfortunately, most of the current recommender systems rely on
real-valued representations in Euclidean space to model either user's long-term
or short-term interests. In this paper, we fully utilize Quaternion space to
model both user's long-term and short-term preferences. We first propose a
QUaternion-based self-Attentive Long term user Encoding (QUALE) to study the
user's long-term intents. Then, we propose a QUaternion-based self-Attentive
Short term user Encoding (QUASE) to learn the user's short-term interests. To
enhance our models' capability, we propose to fuse QUALE and QUASE into one
model, namely QUALSE, by using a Quaternion-based gating mechanism. We further
develop Quaternion-based Adversarial learning along with the Bayesian
Personalized Ranking (QABPR) to improve our model's robustness. Extensive
experiments on six real-world datasets show that our fused QUALSE model
outperformed 11 state-of-the-art baselines, improving 8.43% at HIT@1 and 10.27%
at NDCG@1 on average compared with the best baseline.
- Abstract(参考訳): 四元数空間は、伝統的なユークリッド空間に対していくつかの利点をもたらした:四元数
(i) 実物及び3つの虚構で構成され、より豊かな表現を奨励する。
(ii)複数の四元数成分間の相互作用をよりよくエンコードするハミルトン積を利用する。
(iii)自由度が小さく、過度に満たないモデルとなる。
残念なことに、現在のレコメンデーターシステムのほとんどはユークリッド空間における実際の価値ある表現に頼り、ユーザーの長期的利益または短期的な利益をモデル化している。
本稿では,ユーザの長期と短期の両方の嗜好をモデル化するために,四元空間を完全に活用する。
まず,QUaternionをベースとした自己認識型長期ユーザ符号化(QUILE)を提案する。
そこで本研究では,QUaternionをベースとした自己認識的短期ユーザエンコーディング(QUASE)を提案する。
モデルの能力を高めるために,四元系ゲーティング機構を用いて,クエーカーとクエーズを1つのモデル,すなわちクレーズに融合させる手法を提案する。
ベイジアンパーソナライズされたランキング(QABPR)とともに第4次逆数学習を開発し、モデルの堅牢性を向上させる。
6つの実世界のデータセットに対する大規模な実験により、私たちの融合したQUILSEモデルは11の最先端ベースラインを上回り、HIT@1では8.43%、NDCG@1では10.27%改善した。
関連論文リスト
- A Unified View of Long-Sequence Models towards Modeling Million-Scale
Dependencies [0.0]
既存の解と長周期モデリングを、その純粋数学的定式化の観点から比較する。
次に、長いコンテキスト長がアプリケーションに依存しているにもかかわらず、より良いパフォーマンスをもたらすことを実証します。
大量のキャパシティを持つスパースモデルに着想を得て,百万単位の依存関係を扱う機械学習システムを提案する。
論文 参考訳(メタデータ) (2023-02-13T09:47:31Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - Efficient Person Search: An Anchor-Free Approach [86.45858994806471]
パーソンサーチは、クエリーの人物を、リアルで切り刻まれていない画像から、同時にローカライズし、識別することを目的としている。
この目標を達成するために、最先端モデルは通常、Faster R-CNNのような2段階検出器にre-idブランチを追加する。
本研究では,この課題に対処するためのアンカーフリーな手法を提案する。
論文 参考訳(メタデータ) (2021-09-01T07:01:33Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - Quaternion Factorization Machines: A Lightweight Solution to Intricate
Feature Interaction Modelling [76.89779231460193]
factorization machine(fm)は、機能間の高次インタラクションを自動的に学習し、手動の機能エンジニアリングを必要とせずに予測を行うことができる。
本研究では,スパース予測解析のためのQFM(Quaternion factorization Machine)とQNFM(Quaternion neural factorization Machine)を提案する。
論文 参考訳(メタデータ) (2021-04-05T00:02:36Z) - Probabilistic Metric Learning with Adaptive Margin for Top-K
Recommendation [40.80017379274105]
いくつかの新しい側面を持つ距離ベースレコメンデーションモデルを開発する。
提案モデルは、Top-Kレコメンデーションのrecall@Kの点で、最高の既存のモデルを4-22%上回る。
論文 参考訳(メタデータ) (2021-01-13T03:11:04Z) - Learning User Representations with Hypercuboids for Recommender Systems [26.80987554753327]
我々のモデルは、空間内の一点ではなく、超立方体としてユーザーの興味を明示的にモデル化する。
ユーザの興味の多様性を捉える能力を高めるために,2種類のハイパークボイドを提案する。
また、ユーザのアクティビティシーケンス(例えば、購入とレート)をキャプチャすることで、ユーザの超立方体学習を促進するために、ニューラルアーキテクチャも提案されている。
論文 参考訳(メタデータ) (2020-11-11T12:50:00Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。