論文の概要: Sampling-Decomposable Generative Adversarial Recommender
- arxiv url: http://arxiv.org/abs/2011.00956v1
- Date: Mon, 2 Nov 2020 13:19:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:41:15.665517
- Title: Sampling-Decomposable Generative Adversarial Recommender
- Title(参考訳): サンプリング分解型生成広告レコメンダ
- Authors: Binbin Jin, Defu Lian, Zheng Liu, Qi Liu, Jianhui Ma, Xing Xie, Enhong
Chen
- Abstract要約: サンプル分解可能な生成逆数レコメンダ(SD-GAR)を提案する。
本フレームワークでは, 自己正規化重要度サンプリングにより, 生成元と最適値とのばらつきを補償する。
提案アルゴリズムを5つの実世界のレコメンデーションデータセットを用いて広範囲に評価する。
- 参考スコア(独自算出の注目度): 84.05894139540048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommendation techniques are important approaches for alleviating
information overload. Being often trained on implicit user feedback, many
recommenders suffer from the sparsity challenge due to the lack of explicitly
negative samples. The GAN-style recommenders (i.e., IRGAN) addresses the
challenge by learning a generator and a discriminator adversarially, such that
the generator produces increasingly difficult samples for the discriminator to
accelerate optimizing the discrimination objective. However, producing samples
from the generator is very time-consuming, and our empirical study shows that
the discriminator performs poor in top-k item recommendation. To this end, a
theoretical analysis is made for the GAN-style algorithms, showing that the
generator of limit capacity is diverged from the optimal generator. This may
interpret the limitation of discriminator's performance. Based on these
findings, we propose a Sampling-Decomposable Generative Adversarial Recommender
(SD-GAR). In the framework, the divergence between some generator and the
optimum is compensated by self-normalized importance sampling; the efficiency
of sample generation is improved with a sampling-decomposable generator, such
that each sample can be generated in O(1) with the Vose-Alias method.
Interestingly, due to decomposability of sampling, the generator can be
optimized with the closed-form solutions in an alternating manner, being
different from policy gradient in the GAN-style algorithms. We extensively
evaluate the proposed algorithm with five real-world recommendation datasets.
The results show that SD-GAR outperforms IRGAN by 12.4% and the SOTA
recommender by 10% on average. Moreover, discriminator training can be 20x
faster on the dataset with more than 120K items.
- Abstract(参考訳): 勧告手法は情報過負荷を軽減するための重要なアプローチである。
暗黙のユーザフィードバックでトレーニングされることも多いため、多くの推奨者は、明示的なネガティブなサンプルが欠如しているため、疎外性の課題に悩まされる。
ganスタイルのレコメンダ(すなわちirgan)は、ジェネレータと識別器を敵対的に学習することで、識別対象の最適化を加速するために、ジェネレータが識別器に対してますます難しいサンプルを生成するという課題に対処している。
しかし, 発電機からのサンプル生成には非常に時間がかかり, 実験により, トップk項目の推薦において判別器が不十分であることが確認された。
この目的のためにgan型アルゴリズムの理論的解析を行い、限界容量生成器が最適生成器から逸脱していることを示す。
これは判別器の性能の限界を解釈することができる。
これらの知見に基づき,サンプル分解可能な生成適応レコメンダ (SD-GAR) を提案する。
本発明の枠組みは、あるジェネレータと最適値のばらつきを自己正規化重要サンプリングにより補償し、サンプル生成の効率をサンプリング分解可能なジェネレータで改善し、各サンプルをVose-Alias法でO(1)で生成することができる。
興味深いことに、サンプリングの非合成性のため、ジェネレータはgan型アルゴリズムのポリシー勾配とは異なる、交互に閉形式解で最適化することができる。
提案アルゴリズムを5つの実世界のレコメンデーションデータセットを用いて広範囲に評価する。
その結果、SD-GARはIRGANを12.4%上回り、SOTA勧告者は平均10%上回った。
さらに、識別器のトレーニングは、120K以上のアイテムを持つデータセットで20倍高速になる。
関連論文リスト
- Adversarial Likelihood Estimation With One-Way Flows [44.684952377918904]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成することができるが、サンプル周辺の確率密度を見積もることはできない。
提案手法は, より高速に収束し, 類似したアーキテクチャでGANに匹敵するサンプル品質を生成し, 一般的に使用されるデータセットの過度な適合を回避し, トレーニングデータのスムーズな低次元潜在表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T10:26:29Z) - GANs Settle Scores! [16.317645727944466]
本稿では,変分的手法による発電機最適化を統一的に解析する手法を提案する。
$f$-divergence-minimizing GANsにおいて、最適生成器はその出力分布のスコアとデータ分布のスコアとを一致させるものであることを示す。
本稿では,スコアとフローマッチングに基づく$f$-GAN と IPM-GAN の新たな代替案を提案する。
論文 参考訳(メタデータ) (2023-06-02T16:24:07Z) - Reparameterized Sampling for Generative Adversarial Networks [71.30132908130581]
本稿では,マルコフ連鎖をジェネレータの潜在空間に再配置することで,一般依存型提案を可能にする新しいサンプリング手法REP-GANを提案する。
実験的な実験により、我々のREP-GANはサンプル効率を大幅に改善し、同時により良いサンプル品質を得ることを示した。
論文 参考訳(メタデータ) (2021-07-01T10:34:55Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - Your GAN is Secretly an Energy-based Model and You Should use
Discriminator Driven Latent Sampling [106.68533003806276]
本研究では,潜時空間におけるサンプリングは,潜時空間の前対数密度と判別器出力スコアの和によって誘導されるエネルギーベースモデルに従って,潜時空間におけるサンプリングを行うことによって達成できることを示す。
判別器駆動潜時サンプリング(DDLS)は,高次元画素空間で動作する従来の手法と比較して,高効率であることを示す。
論文 参考訳(メタデータ) (2020-03-12T23:33:50Z) - Discriminative Adversarial Search for Abstractive Summarization [29.943949944682196]
シーケンシャルデコード(DAS)の新しい手法を提案する。
DASは外部メトリクスを必要とせず、露光バイアスの影響を軽減するのが望ましい特性である。
抽象的な要約作業における提案手法の有効性について検討する。
論文 参考訳(メタデータ) (2020-02-24T17:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。