論文の概要: FiBiNet++:Improving FiBiNet by Greatly Reducing Model Size for CTR
Prediction
- arxiv url: http://arxiv.org/abs/2209.05016v1
- Date: Mon, 12 Sep 2022 04:13:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:42:57.483296
- Title: FiBiNet++:Improving FiBiNet by Greatly Reducing Model Size for CTR
Prediction
- Title(参考訳): FiBiNet++:CTR予測のためのモデルサイズを大幅に削減したFiBiNetの改良
- Authors: Pengtao Zhang and Junlin Zhang
- Abstract要約: 本稿では,FiBiNetのモデル構造を再設計するための新しいFiBiNet++モデルを提案する。
3つの公開データセットに対する大規模な実験によると、FiBiNet++は3つのデータセットに対して、FiBiNetの非埋め込みモデルパラメータを12倍から16倍に効果的に削減する。
FiBiNet++は、FiBiNetを含む最先端のCTRメソッドと比較して大幅にパフォーマンスが向上した。
- 参考スコア(独自算出の注目度): 0.696194614504832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Click-Through Rate(CTR) estimation has become one of the most fundamental
tasks in many real-world applications and various deep models have been
proposed to resolve this problem. Some research has proved that FiBiNet is one
of the best performance models and outperforms all other models on Avazu
dataset.However, the large model size of FiBiNet hinders its wider
applications.In this paper, we propose a novel FiBiNet++ model to redesign
FiBiNet's model structure ,which greatly reducess model size while further
improves its performance.Extensive experiments on three public datasets show
that FiBiNet++ effectively reduces non-embedding model parameters of FiBiNet by
12x to 16x on three datasets and has comparable model size with DNN model which
is the smallest one among deep CTR models.On the other hand, FiBiNet++ leads to
significant performance improvements compared to state-of-the-art CTR
methods,including FiBiNet.
- Abstract(参考訳): クリックスルー率(ctr)推定は多くの実世界のアプリケーションにおいて最も基本的なタスクの一つとなり、この問題を解決するために様々な深層モデルが提案されている。
Some research has proved that FiBiNet is one of the best performance models and outperforms all other models on Avazu dataset.However, the large model size of FiBiNet hinders its wider applications.In this paper, we propose a novel FiBiNet++ model to redesign FiBiNet's model structure ,which greatly reducess model size while further improves its performance.Extensive experiments on three public datasets show that FiBiNet++ effectively reduces non-embedding model parameters of FiBiNet by 12x to 16x on three datasets and has comparable model size with DNN model which is the smallest one among deep CTR models.On the other hand, FiBiNet++ leads to significant performance improvements compared to state-of-the-art CTR methods,including FiBiNet.
関連論文リスト
- A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - A Click-Through Rate Prediction Method Based on Cross-Importance of Multi-Order Features [4.820576346277399]
本稿では,FiiNet (Multiple Order Feature Interaction Importance Neural Networks) という新しいモデルを提案する。
モデルはまず選択的なカーネルネットワーク(SKNet)を使用して、マルチオーダーの機能クロスを明示的に構築する。
機能相互作用の組み合わせの重要性をきめ細かな方法で動的に学習する。
論文 参考訳(メタデータ) (2024-05-14T16:05:57Z) - Towards Efficient and Real-Time Piano Transcription Using Neural Autoregressive Models [7.928003786376716]
畳み込みリカレントニューラルネットワークのための新しいアーキテクチャを提案する。
我々は、ピッチワイズLSTMを用いて、音符状態のシーケンスモデリングを改善する。
我々は,提案モデルがMAESTROデータセットの音符精度の観点から,最先端モデルに匹敵することを示す。
論文 参考訳(メタデータ) (2024-04-10T08:06:15Z) - STU-Net: Scalable and Transferable Medical Image Segmentation Models
Empowered by Large-Scale Supervised Pre-training [43.04882328763337]
拡張性のあるU-Net(STU-Net)モデルを設計し、パラメータサイズは1400万から140億まで様々である。
我々は、大規模TotalSegmentatorデータセットでスケーラブルなSTU-Netモデルをトレーニングし、モデルサイズの増加がより強力なパフォーマンス向上をもたらすことを発見した。
我々は、直接推論と微調整の両方において、事前学習されたモデルの優れた性能を観察する。
論文 参考訳(メタデータ) (2023-04-13T17:59:13Z) - GOHSP: A Unified Framework of Graph and Optimization-based Heterogeneous
Structured Pruning for Vision Transformer [76.2625311630021]
視覚変換器(ViT)は、様々なコンピュータビジョンタスクにおいて非常に印象的な経験的性能を示している。
この問題を緩和するために、構造化プルーニングはモデルサイズを圧縮し、実用的な効率を実現するための有望な解決策である。
グラフと最適化に基づく構造的プルーニング(Structured Pruning)を統合化したフレームワークであるGOHSPを提案する。
論文 参考訳(メタデータ) (2023-01-13T00:40:24Z) - Efficient Long Sequential User Data Modeling for Click-Through Rate
Prediction [9.455385139394494]
本稿では,長期動作シーケンスをモデル化し,優れた性能と優れたコスト効率を実現するエンド・ツー・エンドのパラダイムを提案する。
まず、エンド・ツー・エンドのユーザ行動検索を可能にするために、ETA-Netというハッシュベースの効率的なターゲットアテンション(TA)ネットワークを提案する。
ETA-Netはタオバオのレコメンダシステムに配備されており、SOTAの2段法に比べてCTRが1.8%上昇し、Gross Merchandise Value(GMV)が3.1%上昇した。
論文 参考訳(メタデータ) (2022-09-25T12:59:57Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - A Unified Cascaded Encoder ASR Model for Dynamic Model Sizes [54.83802872236367]
本稿では,異なる配置シナリオのモデルを統一した動的カスケードエンコーダ自動音声認識(ASR)モデルを提案する。
提案モデルでは, ベースラインのカスケードエンコーダモデルと比較して30%小さく, 消費電力を33%削減する。
大、中、小のモデルを統一した3つのサイズモデルは、最小品質の損失で37%の総サイズ縮小を達成する。
論文 参考訳(メタデータ) (2022-04-13T04:15:51Z) - Network Augmentation for Tiny Deep Learning [73.57192520534585]
ニューラルネットワークの性能向上のための新しいトレーニング手法であるNetAug(Net Aug)を紹介する。
画像分類と物体検出におけるNetAugの有効性を示す。
論文 参考訳(メタデータ) (2021-10-17T18:48:41Z) - Bottleneck Transformers for Visual Recognition [97.16013761605254]
視覚タスクに自己注意を組み込んだ強力なバックボーンアーキテクチャであるBoTNetを提案する。
我々は、ImageNetベンチマークにおいて84.7%のトップ1の精度で高いパフォーマンスを達成するモデルを提案する。
私たちのシンプルで効果的なアプローチが、将来のビジョンのための自己注意モデル研究の強力なベースラインになることを期待しています。
論文 参考訳(メタデータ) (2021-01-27T18:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。