論文の概要: Industry Insights from Comparing Deep Learning and GBDT Models for E-Commerce Learning-to-Rank
- arxiv url: http://arxiv.org/abs/2507.20753v1
- Date: Mon, 28 Jul 2025 12:02:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.104512
- Title: Industry Insights from Comparing Deep Learning and GBDT Models for E-Commerce Learning-to-Rank
- Title(参考訳): E-Commerce Learning-to-Rankにおける深層学習モデルとGBDTモデルの比較から業界展望
- Authors: Yunus Lutz, Timo Wilm, Philipp Duwe,
- Abstract要約: eコマースのレコメンデータや検索システムでは、LambdaMARTのようなツリーベースのモデルが、学習から学習までのタスクの強力なベースラインを確立している。
業界での有効性と広く採用されているにもかかわらず、ディープニューラルネットワーク(DNN)がこの領域の伝統的なツリーベースモデルより優れているかどうかという議論は続いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In e-commerce recommender and search systems, tree-based models, such as LambdaMART, have set a strong baseline for Learning-to-Rank (LTR) tasks. Despite their effectiveness and widespread adoption in industry, the debate continues whether deep neural networks (DNNs) can outperform traditional tree-based models in this domain. To contribute to this discussion, we systematically benchmark DNNs against our production-grade LambdaMART model. We evaluate multiple DNN architectures and loss functions on a proprietary dataset from OTTO and validate our findings through an 8-week online A/B test. The results show that a simple DNN architecture outperforms a strong tree-based baseline in terms of total clicks and revenue, while achieving parity in total units sold.
- Abstract(参考訳): eコマースレコメンデータや検索システムでは、LambdaMARTのようなツリーベースのモデルがLTR(Learning-to-Rank)タスクの強力なベースラインを確立している。
業界での有効性と広く採用されているにもかかわらず、ディープニューラルネットワーク(DNN)がこの領域の伝統的なツリーベースモデルより優れているかどうかという議論は続いている。
この議論に貢献するため、プロダクショングレードのLambdaMARTモデルに対して、DNNを体系的にベンチマークする。
OTTOのプロプライエタリなデータセット上で,複数のDNNアーキテクチャと損失関数を評価し,8週間のオンラインA/Bテストによる結果の検証を行った。
その結果、単純なDNNアーキテクチャは、全クリック数と収益率において強力な木ベースのベースラインを上回り、総販売台数では同等であることがわかった。
関連論文リスト
- Hierarchical Structured Neural Network: Efficient Retrieval Scaling for Large Scale Recommendation [16.21377996349377]
複雑なユーザインタラクションとアイテムインタラクションを学習するための,効率的なディープニューラルネットワークモデルである階層構造ニューラルネットワーク(HSNN)を導入する。
HSNNは、一般的な手法に比べてオフライン評価の大幅な改善を実現している。
論文 参考訳(メタデータ) (2024-08-13T05:53:46Z) - Spiking Neural Networks in Vertical Federated Learning: Performance Trade-offs [2.1756721838833797]
フェデレートされた機械学習は、複数のクライアントにわたるモデルトレーニングを可能にする。
Vertical Federated Learning (VFL)は、クライアントが同じサンプルの異なる機能セットを持つインスタンスを扱う。
スパイキングニューラルネットワーク(SNN)は、エッジでの高速かつ正確な処理を可能にするために活用されている。
論文 参考訳(メタデータ) (2024-07-24T23:31:02Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Comparison Analysis of Traditional Machine Learning and Deep Learning
Techniques for Data and Image Classification [62.997667081978825]
本研究の目的は、コンピュータビジョン2次元オブジェクト分類タスクに使用される最も一般的な機械学習およびディープラーニング技術を分析し比較することである。
まず、視覚語モデルと深部畳み込みニューラルネットワーク(DCNN)の理論的背景を示す。
次に、Bag of Visual Wordsモデル、VGG16 CNN Architectureを実装します。
論文 参考訳(メタデータ) (2022-04-11T11:34:43Z) - Exploiting Low-Rank Tensor-Train Deep Neural Networks Based on
Riemannian Gradient Descent With Illustrations of Speech Processing [74.31472195046099]
我々は、低ランクテンソルトレイン深層ニューラルネットワーク(TT-DNN)を用いて、エンドツーエンドのディープラーニングパイプライン、すなわちLR-TT-DNNを構築する。
LR-TT-DNNと畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドモデルを構築し、性能を向上する。
我々の実証的な証拠は、モデルパラメータが少ないLR-TT-DNNとCNN+(LR-TT-DNN)モデルが、TT-DNNとCNN+(LR-TT-DNN)モデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-03-11T15:55:34Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。