論文の概要: NAM: A Normalization Attention Model for Personalized Product Search In Fliggy
- arxiv url: http://arxiv.org/abs/2506.08382v1
- Date: Tue, 10 Jun 2025 02:46:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.261303
- Title: NAM: A Normalization Attention Model for Personalized Product Search In Fliggy
- Title(参考訳): NAM: Fliggyにおけるパーソナライズされた製品検索のための正規化注意モデル
- Authors: Shui Liu, Mingyuan Tao, Maofei Que, Pan Li, Dong Li, Shenghua Ni, Zhuoran Zhuang,
- Abstract要約: 製品検索のパーソナライズのための正規化注意モデル(NAM)を提案する。
提案したNAMモデルは,最先端のベースラインモデルよりも大幅に優れていることを示す。
- 参考スコア(独自算出の注目度): 14.447458070745231
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Personalized product search provides significant benefits to e-commerce platforms by extracting more accurate user preferences from historical behaviors. Previous studies largely focused on the user factors when personalizing the search query, while ignoring the item perspective, which leads to the following two challenges that we summarize in this paper: First, previous approaches relying only on co-occurrence frequency tend to overestimate the conversion rates for popular items and underestimate those for long-tail items, resulting in inaccurate item similarities; Second, user purchasing propensity is highly heterogeneous according to the popularity of the target item: it is less correlated with the user's historical behavior for a popular item and more correlated for a long-tail item. To address these challenges, in this paper we propose NAM, a Normalization Attention Model, which optimizes ''when to personalize'' by utilizing Inverse Item Frequency (IIF) and employing a gating mechanism, as well as optimizes ''how to personalize'' by normalizing the attention mechanism from a global perspective. Through comprehensive experiments, we demonstrate that our proposed NAM model significantly outperforms state-of-the-art baseline models. Furthermore, we conducted an online A/B test at Fliggy, and obtained a significant improvement of 0.8% over the latest production system in conversion rate.
- Abstract(参考訳): パーソナライズされた製品検索は、過去の行動からより正確なユーザー好みを抽出することで、Eコマースプラットフォームに重要な利益をもたらす。
従来は検索クエリをパーソナライズする際のユーザ要因に主に焦点が当てられていたが,項目の視点を無視することは,本稿で要約した2つの課題に繋がる。まず,共起頻度のみに依存する従来のアプローチは,人気項目のコンバージョン率を過大評価し,長期項目のコンバージョン率を過大評価する傾向にある。
これらの課題に対処するために,逆アイテム周波数(IIF)を利用して「パーソナライズ」を最適化し,ゲーティング機構を用いて「パーソナライズする方法」を最適化する正規化注意モデルNAMを提案する。
総合実験により,提案したNAMモデルが最先端のベースラインモデルより大幅に優れていることを示す。
さらに、FliggyでオンラインA/Bテストを行い、変換率で最新の生産システムに比べて0.8%の大幅な改善を実現した。
関連論文リスト
- Why is Normalization Necessary for Linear Recommenders? [10.843794863154391]
本稿では,データ正規化(DAN)と呼ばれる多目的正規化ソリューションを提案する。
実験結果から,DANを組み込んだRAEは6つのベンチマークデータセットにわたって,既存のRAEベースモデルを一貫して改善していることがわかった。
論文 参考訳(メタデータ) (2025-04-08T08:37:32Z) - Centrality-aware Product Retrieval and Ranking [14.710718676076327]
本稿では,ユーザの検索クエリに関連する製品ランキングを強化することで,eコマースプラットフォーム上でのユーザエクスペリエンス向上の課題に対処する。
eBayのサンプルをキュレートし、購入者中心の関連スコアと集中度スコアを手作業でアノテートしました。
本稿では,既存モデルに対するユーザインテリジェンス中心性最適化(UCO)アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-21T11:59:14Z) - Long-Sequence Recommendation Models Need Decoupled Embeddings [49.410906935283585]
我々は、既存の長期推薦モデルにおいて無視された欠陥を識別し、特徴付ける。
埋め込みの単一のセットは、注意と表現の両方を学ぶのに苦労し、これら2つのプロセス間の干渉につながります。
本稿では,2つの異なる埋め込みテーブルを別々に学習し,注意と表現を完全に分離する,DARE(Decoupled Attention and Representation Embeddings)モデルを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:45:15Z) - Unified Embedding Based Personalized Retrieval in Etsy Search [0.206242362470764]
グラフ, 変換器, 項ベース埋め込みを終末に組み込んだ統合埋め込みモデルを学習することを提案する。
我々のパーソナライズされた検索モデルは、検索購入率5.58%、サイト全体のコンバージョン率2.63%によって、検索体験を著しく改善する。
論文 参考訳(メタデータ) (2023-06-07T23:24:50Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z) - PreSizE: Predicting Size in E-Commerce using Transformers [76.33790223551074]
PreSizEは、Transformerを使って正確なサイズ予測を行う新しいディープラーニングフレームワークである。
我々は,PreSizEが従来の最先端のベースラインよりも優れた予測性能を実現できることを示した。
概念実証として、PreSizEによるサイズ予測が、既存の生産推奨システムに統合できることを実証しています。
論文 参考訳(メタデータ) (2021-05-04T15:23:59Z) - Heterogeneous Network Embedding for Deep Semantic Relevance Match in
E-commerce Search [29.881612817309716]
Eコマースアイテム関連性のためのエンドツーエンドの第一次および第二次関連性予測モデルを設計します。
BERTから生成された外部知識を導入し,ユーザ行動のネットワークを改良する。
オフライン実験の結果,新しいモデルにより,人間関係判定における予測精度が有意に向上した。
論文 参考訳(メタデータ) (2021-01-13T03:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。