論文の概要: Click Prediction Boosting via Ensemble Learning Pipelines
- arxiv url: http://arxiv.org/abs/2206.03592v1
- Date: Tue, 7 Jun 2022 21:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 05:08:00.101707
- Title: Click Prediction Boosting via Ensemble Learning Pipelines
- Title(参考訳): Ensemble Learning Pipelinesによるクリック予測強化
- Authors: \c{C}a\u{g}atay Demirel, A. Aylin Toku\c{c}, Ahmet Tezcan Tekin
- Abstract要約: オンライン旅行代理店(OTA)はメタ検索入札エンジンでウェブサイトを宣伝している。
この作業には、クリック予測性能を改善するために、様々な回帰器が組み込まれている。
結論として、アンサンブルモデルは予測性能を約10%向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online travel agencies (OTA's) advertise their website offers on meta-search
bidding engines. The problem of predicting the number of clicks a hotel would
receive for a given bid amount is an important step in the management of an
OTA's advertisement campaign on a meta-search engine because bid times number
of clicks defines the cost to be generated. Various regressors are ensembled in
this work to improve click prediction performance. Following the preprocessing
procedures, the feature set is divided into train and test groups depending on
the samples' logging dates. The data collection is then subjected to
XGBoost-based dimension reduction, which significantly reduces the dimension of
features. The optimum hyper-parameters are then found by applying Bayesian
Hyper-parameter optimization to the XGBoost, LightGBM, and SGD models.
Individually, ten distinct machine learning models are tested, as well as
combining them to create ensemble models. Three alternative ensemble solutions
have been suggested. The same test set is used to test both individual and
ensemble models, and the results of 46 model combinations demonstrate that
stack ensemble models yield the desired R2 score of all. In conclusion, the
ensemble model improves the prediction performance by about 10%.
- Abstract(参考訳): オンライン旅行代理店(OTA)はメタ検索入札エンジンでウェブサイトを宣伝している。
特定の入札金額に対してホテルが受け取るクリック数を予測する問題は、クリック回数が生成するコストを定義するため、メタ検索エンジン上でotaの広告キャンペーンを管理する上で重要なステップである。
クリック予測性能を向上させるために,様々なレグレッシャが組み込まれている。
事前処理手順の後、機能セットはサンプルのロギング日数に応じて列車とテストグループに分割される。
データ収集はXGBoostベースの次元削減の対象となり、特徴の次元を大幅に削減する。
最適なハイパーパラメータは、XGBoost、LightGBM、SGDモデルにベイジアンハイパーパラメータ最適化を適用することで得られる。
個別に10の異なる機械学習モデルがテストされ、それらを組み合わせてアンサンブルモデルを作成する。
3つの代替アンサンブル解が提案されている。
同じテストセットは個々のモデルとアンサンブルモデルの両方をテストするために使用され、46のモデルの組み合わせの結果、スタックアンサンブルモデルがすべてのR2スコアを得ることを示す。
結論として、アンサンブルモデルは予測性能を約10%向上させる。
関連論文リスト
- A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - Vehicle Price Prediction By Aggregating decision tree model With
Boosting Model [0.0]
このプロジェクトでは、機械学習アルゴリズムの不要なノイズを回避するために、pythonスクリプトを使用してデータの正規化、標準化、クリーン化を行っている。
提案システムは,決定木モデルとグラディエントブースティング予測モデルを用いて,相互に結合して正確な予測を行う。
同じデータセットの助けを借りた中古車の将来の価格予測は、異なるモデルから構成される。
論文 参考訳(メタデータ) (2023-07-29T13:07:57Z) - Single-Stage Visual Relationship Learning using Conditional Queries [60.90880759475021]
TraCQは、マルチタスク学習問題とエンティティペアの分布を回避する、シーングラフ生成の新しい定式化である。
我々は,DETRをベースとしたエンコーダ-デコーダ条件付きクエリを用いて,エンティティラベル空間を大幅に削減する。
実験結果から、TraCQは既存のシングルステージシーングラフ生成法よりも優れており、Visual Genomeデータセットの最先端の2段階メソッドを多く上回っていることがわかった。
論文 参考訳(メタデータ) (2023-06-09T06:02:01Z) - Quick-Tune: Quickly Learning Which Pretrained Model to Finetune and How [62.467716468917224]
本稿では,最適事前学習モデルとハイパーパラメータを共同で探索し,微調整する手法を提案する。
本手法は,一連のデータセット上で,事前学習したモデルの性能に関する知識を伝達する。
得られたアプローチによって、新しいデータセットの正確な事前学習モデルを迅速に選択できることを実証的に実証する。
論文 参考訳(メタデータ) (2023-06-06T16:15:26Z) - Which is the best model for my data? [0.0]
提案されたメタ学習アプローチは、機械学習に依存し、4つの主要なステップを含む。
本稿では,正と負の測度を含む集約測度値において,情報消去の問題に対処する62のメタ特徴の集合について述べる。
我々のメタ学習アプローチは、合成データセットの91%と実世界のデータセットの87%に対して、最適なモデルを正確に予測できることを示します。
論文 参考訳(メタデータ) (2022-10-26T13:15:43Z) - Model ensemble instead of prompt fusion: a sample-specific knowledge
transfer method for few-shot prompt tuning [85.55727213502402]
我々は、ソースタスクのソフトプロンプトから知識を伝達することで、プロンプトチューニングにおける数ショットのパフォーマンスを改善することに集中する。
我々はソースモデル(SESoM)のサンプル固有アンサンブルを提案する。
SESoMは、ソースモデルが出力されるときに、ターゲットの各サンプルに対するソースモデルのコントリビューションを個別に調整することを学ぶ。
論文 参考訳(メタデータ) (2022-10-23T01:33:16Z) - A Deep Neural Networks ensemble workflow from hyperparameter search to
inference leveraging GPU clusters [0.0]
AutoMLは、定性的予測を達成するために、ディープニューラルネットワーク(DNN)のアンサンブルを自動的に構築することを目指している。
我々は,より正確で多様な個別モデルのライブラリを構築し,アンサンブルを構築するための新しいAutoMLを提案する。
高精度なアンサンブルを生成するために,多目的グリードアルゴリズムに基づく新しいアンサンブル選択法を提案する。
論文 参考訳(メタデータ) (2022-08-30T08:04:19Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - It's the Best Only When It Fits You Most: Finding Related Models for
Serving Based on Dynamic Locality Sensitive Hashing [1.581913948762905]
トレーニングデータの作成は、生産や研究のためにディープラーニングモデルをデプロイするライフサイクルにおいて、しばしばボトルネックとなる。
本稿では,対象のデータセットと利用可能なモデルのトレーニングデータセットの類似性に基づいて,関連するモデルを検索してサービスするエンド・ツー・エンドプロセスを提案する。
論文 参考訳(メタデータ) (2020-10-13T22:52:13Z) - Fast, Accurate, and Simple Models for Tabular Data via Augmented
Distillation [97.42894942391575]
本研究では、FAST-DADを用いて、任意の複雑なアンサンブル予測を、高木、無作為林、深層ネットワークなどの個々のモデルに抽出する。
我々の個々の蒸留モデルは、H2O/AutoSklearnのようなAutoMLツールが生成するアンサンブル予測よりも10倍高速で精度が高い。
論文 参考訳(メタデータ) (2020-06-25T09:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。