論文の概要: "Are you sure?": Preliminary Insights from Scaling Product Comparisons
to Multiple Shops
- arxiv url: http://arxiv.org/abs/2107.03256v1
- Date: Wed, 7 Jul 2021 14:39:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 13:53:09.164670
- Title: "Are you sure?": Preliminary Insights from Scaling Product Comparisons
to Multiple Shops
- Title(参考訳): 「確かですか?」
「:複数の店舗に対する製品比較のスケールアップからの予備的洞察
- Authors: Patrick John Chia and Bingqing Yu and Jacopo Tagliabue
- Abstract要約: 既存のトレーニング/分類データなしで大規模な比較を構築することは、依然としてオープンな課題である。
マルチショップシナリオでスケールするように設計された比較パイプラインの構築による予備的な結果を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large eCommerce players introduced comparison tables as a new type of
recommendations. However, building comparisons at scale without pre-existing
training/taxonomy data remains an open challenge, especially within the
operational constraints of shops in the long tail. We present preliminary
results from building a comparison pipeline designed to scale in a multi-shop
scenario: we describe our design choices and run extensive benchmarks on
multiple shops to stress-test it. Finally, we run a small user study on
property selection and conclude by discussing potential improvements and
highlighting the questions that remain to be addressed.
- Abstract(参考訳): 大手eコマースプレーヤーは新しいタイプのレコメンデーションとして比較テーブルを導入した。
しかし、既存のトレーニング/分類データなしで大規模に比較を構築することは、特にロングテールの店舗の運用上の制約の中で、オープンな課題である。
我々は,マルチショップシナリオにスケールするように設計された比較パイプラインを構築するための予備的な結果を示す: 設計選択を説明し,複数の店舗で広範なベンチマークを実行してストレステストを行う。
最後に、プロパティの選択に関する小さなユーザー調査を行い、潜在的な改善について議論し、対処すべき質問を強調することで締めくくります。
関連論文リスト
- Scaling Retrieval-Based Language Models with a Trillion-Token Datastore [85.4310806466002]
検索ベースLMが使用するデータストアのサイズを増大させることで,言語モデリングや下流タスクを一元的に改善できることがわかった。
データストア、モデル、事前学習データサイズで計算最適スケーリング曲線をプロットすることにより、より大きなデータストアを使用することで、同じトレーニング計算予算のモデル性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-07-09T08:27:27Z) - Not All Preference Pairs Are Created Equal: A Recipe for Annotation-Efficient Iterative Preference Learning [81.69044784288005]
反復的な選好学習には、オンラインの注釈付き選好ラベルが必要である。
コスト効率のよいアノテーションに対する応答対を選択するための戦略について検討する。
論文 参考訳(メタデータ) (2024-06-25T06:49:16Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - ItemSage: Learning Product Embeddings for Shopping Recommendations at
Pinterest [60.841761065439414]
Pinterestでは、ItemSageと呼ばれるプロダクトの埋め込みセットを構築して、すべてのショッピングユースケースに適切なレコメンデーションを提供しています。
このアプローチによって、エンゲージメントとコンバージョンメトリクスが大幅に改善され、インフラストラクチャとメンテナンスコストの両方が削減された。
論文 参考訳(メタデータ) (2022-05-24T02:28:58Z) - Stock2Vec: An Embedding to Improve Predictive Models for Companies [0.5872014229110215]
私たちは、どんな予測モデルにも簡単に追加できる企業株、Stock2Vecの埋め込みを作成します。
次に、応用機械学習問題への埋め込みを評価するための総合的な実験を行う。
実験の結果,Stock2Vec埋め込みの4つの機能は,既存のクロスコンパニオンモデルを容易に拡張できることがわかった。
論文 参考訳(メタデータ) (2022-01-27T02:57:01Z) - PreSizE: Predicting Size in E-Commerce using Transformers [76.33790223551074]
PreSizEは、Transformerを使って正確なサイズ予測を行う新しいディープラーニングフレームワークである。
我々は,PreSizEが従来の最先端のベースラインよりも優れた予測性能を実現できることを示した。
概念実証として、PreSizEによるサイズ予測が、既存の生産推奨システムに統合できることを実証しています。
論文 参考訳(メタデータ) (2021-05-04T15:23:59Z) - BERT Goes Shopping: Comparing Distributional Models for Product
Representations [4.137464623395377]
コンテキスト埋め込みによるNLPタスクの性能改善に触発されて,BERTのようなアーキテクチャをeコマースに移行することを提案する。
当社のモデルであるProdBERTは、マスク付きセッションモデリングにより製品の表現を生成するために訓練されている。
論文 参考訳(メタデータ) (2020-12-17T18:18:03Z) - Learning Transferrable Parameters for Long-tailed Sequential User
Behavior Modeling [70.64257515361972]
テールユーザに注力することで、より多くのメリットをもたらし、長いテールの問題に対処できる、と私たちは主張しています。
具体的には、頭部から尾部への知識伝達を容易にするために、勾配アライメントを提案し、敵のトレーニングスキームを採用する。
論文 参考訳(メタデータ) (2020-10-22T03:12:02Z) - Fantastic Embeddings and How to Align Them: Zero-Shot Inference in a
Multi-Shop Scenario [17.156864650143675]
本稿では,マルチショップパーソナライズに複数の埋め込み空間を活用するという課題に対処する。
手動による介入なしに、あるウェブサイトから別のウェブサイトにショッピング意図を移すことで、ゼロショット推論が可能であることを示す。
2つのダウンストリームタスク、イベント予測とタイプアヘッド提案で共有埋め込み空間をテストすることで、ゼロショットのパーソナライゼーションが実際に実現可能であることを示す。
論文 参考訳(メタデータ) (2020-07-20T13:46:23Z) - Optimizing Revenue while showing Relevant Assortments at Scale [1.0200170217746136]
リアルタイムアソシエーション最適化は、電子商取引業務において欠かせないものとなっている。
我々は、困難な状況下で最適なアソートを見つける高速で柔軟なアルゴリズムを設計する。
実世界のデータセットを用いた実証検証によると、我々のアルゴリズムは、アイテムの数が以前研究されたよりも105$$大きいインスタンスであっても競争力がある。
論文 参考訳(メタデータ) (2020-03-06T20:16:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。