論文の概要: Warmer for Less: A Cost-Efficient Strategy for Cold-Start Recommendations at Pinterest
- arxiv url: http://arxiv.org/abs/2512.17277v1
- Date: Fri, 19 Dec 2025 06:49:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.272048
- Title: Warmer for Less: A Cost-Efficient Strategy for Cold-Start Recommendations at Pinterest
- Title(参考訳): Warmer for Less:Pinterestのコールドスタート推奨のための費用効率の良い戦略
- Authors: Saeed Ebrahimi, Weijie Jiang, Jaewon Yang, Olafur Gudmundsson, Yucheng Tu, Huizhong Duan,
- Abstract要約: 本研究では,冷間開始(CS)項目に対するRecSysモデル予測の改善の問題について検討する。
我々は,CS問題のいくつかの課題を特定し,それぞれに対応するソリューションを開発した。
私たちの方法では、Pinterestでの新鮮なコンテンツエンゲージメントを10%増加させ、全体的なエンゲージメントとコストに悪影響を与えませんでした。
- 参考スコア(独自算出の注目度): 2.081781810753229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pinterest is a leading visual discovery platform where recommender systems (RecSys) are key to delivering relevant, engaging, and fresh content to our users. In this paper, we study the problem of improving RecSys model predictions for cold-start (CS) items, which appear infrequently in the training data. Although this problem is well-studied in academia, few studies have addressed its root causes effectively at the scale of a platform like Pinterest. By investigating live traffic data, we identified several challenges of the CS problem and developed a corresponding solution for each: First, industrial-scale RecSys models must operate under tight computational constraints. Since CS items are a minority, any related improvements must be highly cost-efficient. To address this, our solutions were designed to be lightweight, collectively increasing the total parameters by only 5%. Second, CS items are represented only by non-historical (e.g., content or attribute) features, which models often treat as less important. To elevate their significance, we introduce a residual connection for the non-historical features. Third, CS items tend to receive lower prediction scores compared to non-CS items, reducing their likelihood of being surfaced. We mitigate this by incorporating a score regularization term into the model. Fourth, the labels associated with CS items are sparse, making it difficult for the model to learn from them. We apply the manifold mixup technique to address this data sparsity. Implemented together, our methods increased fresh content engagement at Pinterest by 10% without negatively impacting overall engagement and cost, and have been deployed to serve over 570 million users on Pinterest.
- Abstract(参考訳): Pinterestは、レコメンダシステム(RecSys)がユーザに対して関連性があり、魅力的で、新鮮なコンテンツを配信するための鍵となる、主要なビジュアルディスカバリプラットフォームである。
本稿では,冷間開始(CS)項目に対するRecSysモデル予測の改善の問題について検討する。
この問題は学術的によく研究されているが、Pinterestのようなプラットフォームでその根本原因を効果的に解決する研究はほとんどない。
まず,産業規模のRecSysモデルは,厳密な計算制約の下で動作しなければならない。
CSアイテムは少数派であるため、関連する改善は高いコスト効率でなければならない。
この問題に対処するため、我々のソリューションは軽量に設計され、総パラメータを5%だけ増加させました。
第2に、CS項目は非歴史的(例えば、コンテンツや属性)の特徴によってのみ表現される。
それらの重要性を高めるために,非歴史的特徴に対する残差接続を導入する。
第3に、CS項目は非CS項目に比べて予測スコアが低い傾向にあり、表面化の可能性が低下する傾向にある。
スコア正規化項をモデルに組み込むことでこれを緩和する。
第4に、CSアイテムに関連するラベルは疎いため、モデルがそれらから学ぶのが難しくなる。
このデータ空間に対処するために,多様体混合手法を適用した。
私たちの方法では、Pinterestでの新鮮なコンテンツエンゲージメントを10%増加させ、全体のエンゲージメントとコストに悪影響を及ぼすことなく、Pinterest上で5億7000万以上のユーザにサービスを提供しています。
関連論文リスト
- Cold-Start Active Preference Learning in Socio-Economic Domains [0.0]
積極的嗜好学習におけるコールドスタート問題はほとんど未解明のままである。
提案手法は,PCA(Principal Component Analysis)を用いた自己教師型フェーズで学習を開始し,初期擬似ラベルを生成する。
経済的信頼度、キャリア成功率、社会経済的地位など、様々な社会経済的データセットで実施された実験は、PCA主導のアプローチが標準的なアクティブラーニング戦略より優れていることを一貫して示している。
論文 参考訳(メタデータ) (2025-08-07T07:18:50Z) - Intention-Conditioned Flow Occupancy Models [80.42634994902858]
大規模な事前学習は、今日の機械学習研究のやり方を根本的に変えた。
同じフレームワークを強化学習に適用することは、RLの中核的な課題に対処するための魅力的な方法を提供するので、魅力的です。
生成AIの最近の進歩は、高度に複雑な分布をモデリングするための新しいツールを提供している。
論文 参考訳(メタデータ) (2025-06-10T15:27:46Z) - Retrieval Augmentation via User Interest Clustering [57.63883506013693]
インダストリアルレコメンデータシステムは、ユーザ・イテム・エンゲージメントのパターンに敏感である。
本稿では,ユーザの関心を効率的に構築し,計算コストの低減を図る新しい手法を提案する。
当社のアプローチはMetaの複数の製品に展開されており、ショートフォームビデオ関連の推奨を助長しています。
論文 参考訳(メタデータ) (2024-08-07T16:35:10Z) - Continual Adaptation of Vision Transformers for Federated Learning [26.64725725128934]
我々は,サーバが一連のクライアントと通信し,新たな概念を漸進的に学習する,連続的フェデレートラーニング(CFL)の重要な課題に注目した。
この問題に対する既存の試みは、クライアントや通信チャネルに大きなオーバーヘッドを課す傾向がある。
本稿では,サーバにおけるクライアントモデルを統合するための,新規で軽量な生成・蒸留方式を提案する。
論文 参考訳(メタデータ) (2023-06-16T17:02:12Z) - CILIATE: Towards Fairer Class-based Incremental Learning by Dataset and
Training Refinement [20.591583747291892]
我々は、CILがデータセットとアルゴリズムのバイアスの両方に悩まされていることを示す。
本稿では,CILにおけるデータセットとアルゴリズムバイアスを両立させる新しいフレームワークCILIATEを提案する。
CILIATEは最先端の手法と比較してCILの公正性を17.03%、22.46%、31.79%改善している。
論文 参考訳(メタデータ) (2023-04-09T12:10:39Z) - Complement Sparsification: Low-Overhead Model Pruning for Federated
Learning [2.0428960719376166]
フェデレートラーニング(Federated Learning, FL)は、プライバシに保護された分散ディープラーニングパラダイムであり、かなりのコミュニケーションと計算作業を伴う。
既存のモデルプルーニング/スパーシフィケーションソリューションは、サーバとクライアント間の双方向通信のオーバーヘッドが低いという要求を満たすことができません。
我々は,サーバとクライアントで行う補完的かつ協調的なプルーニングを通じて,これらの要求を満たすプルーニング機構であるComplement Sparsification (CS)を提案する。
論文 参考訳(メタデータ) (2023-03-10T23:07:02Z) - Smoothly Giving up: Robustness for Simple Models [30.56684535186692]
このようなモデルをトレーニングするアルゴリズムの例としては、ロジスティック回帰とブースティングがある。
我々は、標準凸損失関数間のチューニングを行う、$Served-Servedジョイント凸損失関数を用いて、そのようなモデルを堅牢に訓練する。
また、ロジスティック回帰のためのCOVID-19データセットを強化し、複数の関連ドメインにまたがる効果のアプローチを強調します。
論文 参考訳(メタデータ) (2023-02-17T19:48:11Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - Privileged Graph Distillation for Cold Start Recommendation [57.918041397089254]
レコメンデーションシステムにおけるコールドスタートの問題は、歴史的相互作用の記録のない属性に基づいて新しいユーザー(イテム)に推奨することである。
特権グラフ蒸留モデル(PGD)を提案する。
提案手法は,新規ユーザ,新規ユーザ,新規ユーザを対象とする異なるコールドスタートシナリオに適用可能である。
論文 参考訳(メタデータ) (2021-05-31T14:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。