論文の概要: Field-Embedded Factorization Machines for Click-through rate prediction
- arxiv url: http://arxiv.org/abs/2009.09931v2
- Date: Mon, 14 Jun 2021 18:45:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 03:00:59.143167
- Title: Field-Embedded Factorization Machines for Click-through rate prediction
- Title(参考訳): クリックスルー率予測のためのフィールド埋め込み因子化マシン
- Authors: Harshit Pande
- Abstract要約: クリックスルーレート(CTR)予測モデルは、デジタル広告やレコメンダシステムなど、多くのオンラインアプリケーションで一般的である。
我々は,新しい浅場埋め込み因子化マシン (FEFM) と深場埋め込み因子化マシン (DeepFEFM) を提案する。
FEFMはFFMよりもモデル複雑さが著しく低く、FwFMとほぼ同じ複雑さを持つ。
- 参考スコア(独自算出の注目度): 2.942829992746068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Click-through rate (CTR) prediction models are common in many online
applications such as digital advertising and recommender systems. Field-Aware
Factorization Machine (FFM) and Field-weighted Factorization Machine (FwFM) are
state-of-the-art among the shallow models for CTR prediction. Recently, many
deep learning-based models have also been proposed. Among deeper models,
DeepFM, xDeepFM, AutoInt+, and FiBiNet are state-of-the-art models. The deeper
models combine a core architectural component, which learns explicit feature
interactions, with a deep neural network (DNN) component. We propose a novel
shallow Field-Embedded Factorization Machine (FEFM) and its deep counterpart
Deep Field-Embedded Factorization Machine (DeepFEFM). FEFM learns symmetric
matrix embeddings for each field pair along with the usual single vector
embeddings for each feature. FEFM has significantly lower model complexity than
FFM and roughly the same complexity as FwFM. FEFM also has insightful
mathematical properties about important fields and field interactions. DeepFEFM
combines the FEFM interaction vectors learned by the FEFM component with a DNN
and is thus able to learn higher order interactions. We conducted comprehensive
experiments over a wide range of hyperparameters on two large publicly
available real-world datasets. When comparing test AUC and log loss, the
results show that FEFM and DeepFEFM outperform the existing state-of-the-art
shallow and deep models for CTR prediction tasks. We have made the code of FEFM
and DeepFEFM available in the DeepCTR library
(https://github.com/shenweichen/DeepCTR).
- Abstract(参考訳): クリックスルーレート(CTR)予測モデルは、デジタル広告やレコメンダシステムなど、多くのオンラインアプリケーションで一般的である。
fwfm (field-aware factorization machine) とfwfm (field-weighted factorization machine) はctr予測のための浅層モデルの中で最先端である。
近年,ディープラーニングに基づくモデルも数多く提案されている。
DeepFM、xDeepFM、AutoInt+、FiBiNetといったより深いモデルは最先端のモデルである。
より深いモデルは、明示的な機能インタラクションを学ぶコアアーキテクチャコンポーネントと、ディープニューラルネットワーク(DNN)コンポーネントを組み合わせる。
本研究では,新しい浅場埋め込み因子化マシン (FEFM) と深場埋め込み因子化マシン (DeepFEFM) を提案する。
FEFMは各フィールド対に対する対称行列埋め込みと、各特徴に対する通常の単一ベクトル埋め込みを学習する。
FEFMはFFMよりもモデル複雑さが著しく低く、FwFMとほぼ同じ複雑さを持つ。
FEFMはまた、重要な場と相互作用に関する洞察に富んだ数学的性質を持っている。
DeepFEFMは、FEFMコンポーネントによって学習されたFEFM相互作用ベクトルとDNNを組み合わせることで、高次相互作用を学習することができる。
我々は,2つの大規模公開実世界のデータセット上で,幅広いハイパーパラメータについて包括的な実験を行った。
テストAUCとログ損失を比較すると、FEFMとDeepFEFMはCTR予測タスクの最先端および深部モデルよりも優れていた。
FEFMとDeepFEFMのコードはDeepCTRライブラリ(https://github.com/shenweichen/DeepCTR)で利用可能です。
関連論文リスト
- Towards Neural Scaling Laws for Time Series Foundation Models [63.5211738245487]
我々は、エンコーダオンリーとデコーダオンリーのトランスフォーマーの2つの一般的なTSFMアーキテクチャについて検討し、IDおよびOODデータのスケーリング挙動について検討する。
実験の結果,TSFMのログライクな損失はOODとID設定の両方で同様のスケーリング挙動を示すことがわかった。
モデル機能を強化した大規模TSFMの設計とスケーリングのための実用的なガイドラインを提供する。
論文 参考訳(メタデータ) (2024-10-16T08:23:39Z) - EMOFM: Ensemble MLP mOdel with Feature-based Mixers for Click-Through
Rate Prediction [5.983194751474721]
データセットには数百万のレコードが含まれており、レコード内の各フィールドワイド機能は、プライバシのためのハッシュされた整数で構成されている。
このタスクのために、ネットワークベースの手法のキーは、異なるフィールドにまたがるタイプワイドな特徴抽出と情報融合であるかもしれない。
フィールド/タイプワイド機能融合のためのプラグインミキサーを提案し、フィールド/タイプワイドアンサンブルモデル、すなわちEMOFMを構築する。
論文 参考訳(メタデータ) (2023-10-06T12:32:23Z) - Directed Acyclic Graph Factorization Machines for CTR Prediction via
Knowledge Distillation [65.62538699160085]
本稿では,既存の複雑な相互作用モデルから,知識蒸留によるCTR予測のための高次特徴相互作用を学習するための非巡回グラフファクトリゼーションマシン(KD-DAGFM)を提案する。
KD-DAGFMは、オンラインとオフラインの両方の実験において、最先端のFLOPの21.5%未満で最高の性能を達成する。
論文 参考訳(メタデータ) (2022-11-21T03:09:42Z) - Boosting Factorization Machines via Saliency-Guided Mixup [125.15872106335692]
我々は、MixupにインスパイアされたMixFMを紹介し、ファクトリゼーションマシン(FM)を強化するための補助的なトレーニングデータを生成する。
また、Saliency-Guided Mixup(SMFM)を利用した新しいファクトリゼーションマシンも提案した。
論文 参考訳(メタデータ) (2022-06-17T09:49:00Z) - Leaf-FM: A Learnable Feature Generation Factorization Machine for
Click-Through Rate Prediction [2.412497918389292]
本稿では,FM に基づく LeafFM モデルを提案する。
実世界の3つのデータセットで実験を行い、その結果、Leaf-FMモデルは標準FMよりも大きなマージンで優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T08:29:18Z) - Global Filter Networks for Image Classification [90.81352483076323]
本稿では,対数線形複雑度を持つ周波数領域における長期空間依存性を学習する,概念的に単純だが計算効率のよいアーキテクチャを提案する。
この結果から,GFNetはトランスフォーマー型モデルやCNNの効率,一般化能力,堅牢性において,非常に競争力のある代替手段となる可能性が示唆された。
論文 参考訳(メタデータ) (2021-07-01T17:58:16Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Quaternion Factorization Machines: A Lightweight Solution to Intricate
Feature Interaction Modelling [76.89779231460193]
factorization machine(fm)は、機能間の高次インタラクションを自動的に学習し、手動の機能エンジニアリングを必要とせずに予測を行うことができる。
本研究では,スパース予測解析のためのQFM(Quaternion factorization Machine)とQNFM(Quaternion neural factorization Machine)を提案する。
論文 参考訳(メタデータ) (2021-04-05T00:02:36Z) - $FM^2$: Field-matrixed Factorization Machines for Recommender Systems [9.461169933697379]
フィールド情報を効果的かつ効率的にモデル化するための新しい手法を提案する。
提案手法はFwFMの直接改良であり、FmFM(Field-matrixed Factorization Machines)と呼ばれている。
論文 参考訳(メタデータ) (2021-02-20T00:03:37Z) - AdnFM: An Attentive DenseNet based Factorization Machine for CTR
Prediction [11.958336595818267]
Attentive DenseNet based Factorization Machines (AdnFM) と呼ばれる新しいモデルを提案する。
AdnFMはフィードフォワードニューラルネットワークから隠されたすべての層を暗黙の高次の特徴として使用することにより、より包括的な深い特徴を抽出することができる。
2つの実世界のデータセットにおける実験により、提案モデルがクリックスルーレート予測の性能を効果的に向上できることが示されている。
論文 参考訳(メタデータ) (2020-12-20T01:00:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。