論文の概要: Fine-tune BERT for E-commerce Non-Default Search Ranking
- arxiv url: http://arxiv.org/abs/2008.09689v1
- Date: Fri, 21 Aug 2020 21:48:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 22:04:45.085129
- Title: Fine-tune BERT for E-commerce Non-Default Search Ranking
- Title(参考訳): Eコマースの非Default検索ランキングのためのファインチューンBERT
- Authors: Yunjiang Jiang, Yue Shang, Hongwei Shen, Wen-Yun Yang and Yun Xiao
- Abstract要約: そこで本研究では,まず検索/字幕キーワードマッチングによって幅広い候補項目をリコールする2段階のランク付け手法を提案し,その上で,BERT-Large を用いた詳細なラベルデータを用いたリコール項目の分類を行う。
そこで本研究では,まず検索/字幕キーワードマッチングによって,候補項目の広範囲をリコールする2段階のランキング手法を提案し,その上で,BERT-Largeを人間のラベルデータに基づいて微調整し,リコール項目を分類する。
- 参考スコア(独自算出の注目度): 10.267744766764185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of non-default ranking on e-commerce platforms, such as based on
ascending item price or descending historical sales volume, often suffers from
acute relevance problems, since the irrelevant items are much easier to be
exposed at the top of the ranking results. In this work, we propose a two-stage
ranking scheme, which first recalls wide range of candidate items through
refined query/title keyword matching, and then classifies the recalled items
using BERT-Large fine-tuned on human label data. We also implemented parallel
prediction on multiple GPU hosts and a C++ tokenization custom op of
Tensorflow. In this data challenge, our model won the 1st place in the
supervised phase (based on overall F1 score) and 2nd place in the final phase
(based on average per query F1 score).
- Abstract(参考訳): eコマースプラットフォームにおける非デフォルトランキングの質は、上昇アイテム価格や下降する履歴売上量などに基づいており、ランキング結果の上位で無関係アイテムが露出しやすいため、急な関連性の問題に陥ることが多い。
そこで本研究では,人間ラベルデータを用いたbert-large fine-tunedを用いて,クエリ/タイトルキーワードマッチングにより,まず幅広い候補項目をリコールし,リコールされた項目を分類する2段階のランク付け手法を提案する。
また、複数のGPUホストに並列予測を実装し、TensorflowのC++トークン化カスタムオプも実装した。
このデータチャレンジでは、教師付きフェーズ(全体のF1スコア)で1位、最終フェーズ(クエリ毎の平均F1スコア)で2位を獲得しました。
関連論文リスト
- Centrality-aware Product Retrieval and Ranking [14.710718676076327]
本稿では,ユーザの検索クエリに関連する製品ランキングを強化することで,eコマースプラットフォーム上でのユーザエクスペリエンス向上の課題に対処する。
eBayのサンプルをキュレートし、購入者中心の関連スコアと集中度スコアを手作業でアノテートしました。
本稿では,既存モデルに対するユーザインテリジェンス中心性最適化(UCO)アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-21T11:59:14Z) - A Simple Baseline for Predicting Events with Auto-Regressive Tabular Transformers [70.20477771578824]
イベント予測への既存のアプローチには、タイムアウェアな位置埋め込み、学習行とフィールドエンコーディング、クラス不均衡に対処するオーバーサンプリング方法などがある。
基本位置埋め込みと因果言語モデリングの目的を持つ標準自己回帰型LPM変換器を用いて,単純だが柔軟なベースラインを提案する。
私たちのベースラインは、一般的なデータセットで既存のアプローチよりも優れており、さまざまなユースケースに使用することができます。
論文 参考訳(メタデータ) (2024-10-14T15:59:16Z) - Found in the Middle: Permutation Self-Consistency Improves Listwise Ranking in Large Language Models [63.714662435555674]
大規模言語モデル(LLM)は、文脈の使い方に位置バイアスを示す。
我々は,ブラックボックスLLMのランキングリスト出力に対して,自己整合性(permutation self-consistency)を提案する。
LLaMA v2 (70B) では GPT-3.5 では 7-18% , LLaMA v2 (70B) では 8-16% である。
論文 参考訳(メタデータ) (2023-10-11T17:59:02Z) - Replace Scoring with Arrangement: A Contextual Set-to-Arrangement
Framework for Learning-to-Rank [40.81502990315285]
ラーニング・トゥ・ランク(Learning-to-rank)は、トップNレコメンデーションタスクの中核的なテクニックであり、理想的なランク付けはアイテムからアレンジへのマッピングである。
既存のソリューションのほとんどは確率的ランキング原理(PRP)のパラダイムに該当する。すなわち、まず候補セットで各項目をスコアし、次にソート操作を行い、トップランキングリストを生成する。
本稿では,個別のスコアリングやソートを必要とせずに,候補項目の順列を直接生成する新しいフレームワークであるSet-To-Arrangement Ranking (STARank)を提案する。
論文 参考訳(メタデータ) (2023-08-05T12:22:26Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - PIER: Permutation-Level Interest-Based End-to-End Re-ranking Framework
in E-commerce [13.885695433738437]
既存の再ランク付け手法は、初期ランキングリストを直接入力として取り、よく設計されたコンテキストワイズモデルによって最適な置換を生成する。
候補の順列を評価することは 現実的には 許容できない計算コストをもたらします
本稿では,これらの課題に対処するため,PIERという新しいエンドツーエンドのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-06T09:17:52Z) - Integrating Rankings into Quantized Scores in Peer Review [61.27794774537103]
ピアレビューでは、レビュアーは通常、論文のスコアを提供するように求められます。
この問題を軽減するため、カンファレンスはレビュアーにレビューした論文のランキングを付加するように求め始めている。
このランキング情報を使用するための標準的な手順はなく、エリアチェアは異なる方法でそれを使用することができる。
我々は、ランキング情報をスコアに組み込むために、原則化されたアプローチを取る。
論文 参考訳(メタデータ) (2022-04-05T19:39:13Z) - PEAR: Personalized Re-ranking with Contextualized Transformer for
Recommendation [48.17295872384401]
文脈変換器に基づくパーソナライズされた再ランクモデル(Dubbed PEAR)を提案する。
PEARは、既存のメソッドに対していくつかの大きな改善を行っている。
また、ランキングリスト全体のユーザの満足度を評価するために、リストレベルの分類タスクでPEARのトレーニングを強化する。
論文 参考訳(メタデータ) (2022-03-23T08:29:46Z) - Online Learning of Optimally Diverse Rankings [63.62764375279861]
ユーザのフィードバックのみに基づいて最適なリストを効率よく学習するアルゴリズムを提案する。
我々は、$T$クエリの後に、LDRの後悔は$O((N-L)log(T))$としてスケールする。
論文 参考訳(メタデータ) (2021-09-13T12:13:20Z) - Brown University at TREC Deep Learning 2019 [11.63256359906015]
本稿では,ブラウン大学のTREC 2019 Deep Learningトラックへの提出について述べる。
ブラウンのチームは、パス検索タスク(フルランクとリランクを含む)で3位、再ランクの申請のみを考えると2位にランクインした。
論文 参考訳(メタデータ) (2020-09-08T22:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。