論文の概要: Explicit Semantic Cross Feature Learning via Pre-trained Graph Neural
Networks for CTR Prediction
- arxiv url: http://arxiv.org/abs/2105.07752v1
- Date: Mon, 17 May 2021 11:56:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:58:18.763475
- Title: Explicit Semantic Cross Feature Learning via Pre-trained Graph Neural
Networks for CTR Prediction
- Title(参考訳): CTR予測のための事前学習型グラフニューラルネットワークによる意味的クロス特徴学習
- Authors: Feng Li, Bencheng Yan, Qingqing Long, Pengjie Wang, Wei Lin, Jian Xu
and Bo Zheng
- Abstract要約: クロス機能はクリックスルー率(CTR)予測において重要な役割を果たす。
既存のメソッドのほとんどはDNNベースのモデルを採用し、クロス機能を暗黙的にキャプチャしている。
本研究では,GNNベースの事前学習モデルであるPCF-GNN(Pre-trained Cross Feature Learning Graph Neural Networks)を提案する。
- 参考スコア(独自算出の注目度): 14.270296688394762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross features play an important role in click-through rate (CTR) prediction.
Most of the existing methods adopt a DNN-based model to capture the cross
features in an implicit manner. These implicit methods may lead to a
sub-optimized performance due to the limitation in explicit semantic modeling.
Although traditional statistical explicit semantic cross features can address
the problem in these implicit methods, it still suffers from some challenges,
including lack of generalization and expensive memory cost. Few works focus on
tackling these challenges. In this paper, we take the first step in learning
the explicit semantic cross features and propose Pre-trained Cross Feature
learning Graph Neural Networks (PCF-GNN), a GNN based pre-trained model aiming
at generating cross features in an explicit fashion. Extensive experiments are
conducted on both public and industrial datasets, where PCF-GNN shows
competence in both performance and memory-efficiency in various tasks.
- Abstract(参考訳): クロス機能はクリックスルー率(CTR)予測において重要な役割を果たす。
既存のメソッドのほとんどは、暗黙の方法でクロスフィーチャをキャプチャするためにDNNベースのモデルを採用している。
これらの暗黙の手法は、明示的なセマンティックモデリングの制限により、サブ最適化のパフォーマンスをもたらす可能性がある。
従来の統計的明示的セマンティッククロス機能は、これらの暗黙の手法でこの問題に対処できるが、一般化の欠如や高価なメモリコストなど、いくつかの課題に悩まされている。
これらの課題に取り組むことに注力する作業はほとんどない。
本稿では,明示的なセマンティッククロス特徴を学習する第一歩として,GNNをベースとした事前学習モデルであるPCF-GNN(Pre-trained Cross Feature Learning Graph Neural Networks)を提案する。
PCF-GNNは様々なタスクにおける性能とメモリ効率の両方の能力を示す。
関連論文リスト
- Post-Hoc Robustness Enhancement in Graph Neural Networks with Conditional Random Fields [19.701706244728037]
グラフニューラルネットワーク(GNN)は、敵の攻撃に弱いことが示されている。
本研究では,推論段階におけるGNNの堅牢性向上を目的としたポストホックアプローチであるRobustCRFを紹介する。
論文 参考訳(メタデータ) (2024-11-08T08:26:42Z) - Kolmogorov-Arnold Graph Neural Networks [2.4005219869876453]
グラフニューラルネットワーク(GNN)は、ネットワークのようなデータから学習する上で優れるが、解釈性に欠けることが多い。
本稿では,GKAN(Graph Kolmogorov-Arnold Network)を提案する。
論文 参考訳(メタデータ) (2024-06-26T13:54:59Z) - Probabilistically Rewired Message-Passing Neural Networks [41.554499944141654]
メッセージパッシンググラフニューラルネットワーク(MPNN)は、グラフ構造化入力を処理する強力なツールとして登場した。
MPNNは、潜在的なノイズや欠落した情報を無視して、固定された入力グラフ構造で動作する。
確率的に再構成されたMPNN(PR-MPNN)を考案し、より有益なものを省略しながら、関連するエッジを追加することを学習する。
論文 参考訳(メタデータ) (2023-10-03T15:43:59Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - MARS: Meta-Learning as Score Matching in the Function Space [79.73213540203389]
本稿では,一連の関連するデータセットから帰納バイアスを抽出する手法を提案する。
機能的ベイズニューラルネットワーク推論を用いて、前者をプロセスとみなし、関数空間で推論を行う。
本手法は,データ生成プロセスのスコア関数をメタラーニングすることにより,複雑な事前知識をシームレスに獲得し,表現することができる。
論文 参考訳(メタデータ) (2022-10-24T15:14:26Z) - Invertible Neural Networks for Graph Prediction [22.140275054568985]
本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
論文 参考訳(メタデータ) (2022-06-02T17:28:33Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks [96.93500886136532]
グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T15:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。