論文の概要: DynInt: Dynamic Interaction Modeling for Large-scale Click-Through Rate
Prediction
- arxiv url: http://arxiv.org/abs/2301.08139v1
- Date: Tue, 3 Jan 2023 13:01:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-29 13:58:46.141200
- Title: DynInt: Dynamic Interaction Modeling for Large-scale Click-Through Rate
Prediction
- Title(参考訳): DynInt: 大規模クリックスルー速度予測のための動的相互作用モデリング
- Authors: YaChen Yan, Liubo Li
- Abstract要約: 機能インタラクションの学習は、Adsランキングとレコメンデーションシステムにおける大規模なCTR予測の成功の鍵である。
このような問題をモデル化するために、ディープニューラルネットワークベースのモデルが広く採用されている。
我々はDynIntという新しいモデルを提案する。DynIntは動的でデータに依存しない高次相互作用を学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning feature interactions is the key to success for the large-scale CTR
prediction in Ads ranking and recommender systems. In industry, deep neural
network-based models are widely adopted for modeling such problems. Researchers
proposed various neural network architectures for searching and modeling the
feature interactions in an end-to-end fashion. However, most methods only learn
static feature interactions and have not fully leveraged deep CTR models'
representation capacity. In this paper, we propose a new model: DynInt. By
extending Polynomial-Interaction-Network (PIN), which learns higher-order
interactions recursively to be dynamic and data-dependent, DynInt further
derived two modes for modeling dynamic higher-order interactions: dynamic
activation and dynamic parameter. In dynamic activation mode, we adaptively
adjust the strength of learned interactions by instance-aware activation gating
networks. In dynamic parameter mode, we re-parameterize the parameters by
different formulations and dynamically generate the parameters by
instance-aware parameter generation networks. Through instance-aware gating
mechanism and dynamic parameter generation, we enable the PIN to model dynamic
interaction for potential industry applications. We implement the proposed
model and evaluate the model performance on real-world datasets. Extensive
experiment results demonstrate the efficiency and effectiveness of DynInt over
state-of-the-art models.
- Abstract(参考訳): 機能インタラクションの学習は、広告ランキングとレコメンデーションシステムにおける大規模なCTR予測の成功の鍵である。
業界では、そのような問題をモデル化するためにディープニューラルネットワークベースのモデルが広く採用されている。
研究者たちは、エンドツーエンドで機能インタラクションを検索し、モデル化するための、さまざまなニューラルネットワークアーキテクチャを提案した。
しかし、ほとんどの手法は静的な特徴相互作用のみを学習し、深いCTRモデルの表現能力を完全に活用していない。
本稿では,新しいモデルDynIntを提案する。
高次相互作用を動的かつデータ依存に再帰的に学習するPolynomial-Interaction-Network (PIN)を拡張することで、DynIntはさらに動的高次相互作用をモデリングするための2つのモード、動的アクティベーションと動的パラメータを導出した。
動的アクティベーションモードでは、インスタンス対応アクティベーションゲーティングネットワークによる学習相互作用の強度を適応的に調整する。
動的パラメータモードでは、パラメータを異なる定式化で再パラメータ化し、インスタンス認識パラメータ生成ネットワークでパラメータを動的に生成する。
インスタンス認識ゲーティング機構と動的パラメータ生成により、PINは潜在的な産業アプリケーションのための動的相互作用をモデル化できる。
提案モデルを実装し,実世界のデータセットにおけるモデル性能を評価する。
実験結果は,最先端モデルに対するDynIntの有効性と有効性を示した。
関連論文リスト
- ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - The Underlying Correlated Dynamics in Neural Training [6.385006149689549]
ニューラルネットワークのトレーニングは、計算集約的なタスクである。
本稿では,パラメータのダイナミクスの相関に基づくモデルを提案する。
この表現は、基礎となるトレーニングダイナミクスの理解を深め、より良い加速技術を設計するための道を開くことができる。
論文 参考訳(メタデータ) (2022-12-18T08:34:11Z) - Learning Interacting Dynamical Systems with Latent Gaussian Process ODEs [13.436770170612295]
本研究では,対話対象の連続時間力学の不確実性を考慮したモデリングを初めて行った。
我々のモデルは、独立力学と信頼性のある不確実性推定との相互作用の両方を推測する。
論文 参考訳(メタデータ) (2022-05-24T08:36:25Z) - Gradient-Based Trajectory Optimization With Learned Dynamics [80.41791191022139]
データからシステムの微分可能なダイナミクスモデルを学習するために、機械学習技術を使用します。
ニューラルネットワークは、大規模な時間的地平線に対して、非常に非線形な振る舞いを正確にモデル化できることが示される。
ハードウェア実験において、学習したモデルがSpotとRadio- controlled (RC)の両方の複雑な力学を表現できることを実証した。
論文 参考訳(メタデータ) (2022-04-09T22:07:34Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Dynamic Parameterized Network for CTR Prediction [6.749659219776502]
我々は、明示的かつ暗黙的な相互作用をインスタンスワイズで学習するために、新しいプラグイン操作であるDynamic ized Operation (DPO)を提案した。
DNNモジュールとアテンションモジュールへのDPOの導入は,クリックスルー率(CTR)予測においてそれぞれ2つの主要なタスクに有効であることを示した。
我々のDynamic ized Networksは、パブリックデータセットと実世界のプロダクションデータセットのオフライン実験において、最先端の手法を著しく上回る。
論文 参考訳(メタデータ) (2021-11-09T08:15:03Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - HyperDynamics: Meta-Learning Object and Agent Dynamics with
Hypernetworks [18.892883695539002]
HyperDynamicsは、ニューラルネットワークモデルのパラメータを生成する動的メタ学習フレームワークである。
高次元の視覚観察でダイナミクスを学習することで、環境の変化に適応する既存のモデルを上回る性能を発揮します。
本手法は,個別に訓練された専門家の演奏に合致すると同時に,テスト時に未知の環境変動に対して十分に一般化できることを示す。
論文 参考訳(メタデータ) (2021-03-17T04:48:43Z) - Action-Conditional Recurrent Kalman Networks For Forward and Inverse
Dynamics Learning [17.80270555749689]
ロボットのモデルベース制御において、正確な前方および逆ダイナミクスモデルの推定が重要な要素である。
本稿では,フォワードモデル学習のためのアーキテクチャと,逆モデル学習のためのアーキテクチャを提案する。
どちらのアーキテクチャも、予測性能の点で、既存のモデル学習フレームワークと分析モデルを大きく上回っている。
論文 参考訳(メタデータ) (2020-10-20T11:28:25Z) - Automated and Formal Synthesis of Neural Barrier Certificates for
Dynamical Models [70.70479436076238]
バリア証明書(BC)の自動的,形式的,反例に基づく合成手法を提案する。
このアプローチは、ニューラルネットワークとして構造化されたBCの候補を操作する誘導的フレームワークと、その候補の有効性を認証するか、反例を生成する音検証器によって支えられている。
その結果,音のBCsを最大2桁の速度で合成できることがわかった。
論文 参考訳(メタデータ) (2020-07-07T07:39:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。