論文の概要: TaylorGAN: Neighbor-Augmented Policy Update for Sample-Efficient Natural
Language Generation
- arxiv url: http://arxiv.org/abs/2011.13527v1
- Date: Fri, 27 Nov 2020 02:26:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 01:39:45.958354
- Title: TaylorGAN: Neighbor-Augmented Policy Update for Sample-Efficient Natural
Language Generation
- Title(参考訳): TaylorGAN: サンプル効率の良い自然言語生成のための隣り合わせのポリシー更新
- Authors: Chun-Hsing Lin, Siang-Ruei Wu, Hung-Yi Lee, Yun-Nung Chen
- Abstract要約: TaylorGANは関数ベースの自然言語生成のための新しいアプローチである。
オフポリシー更新による勾配推定と1階のTaylor拡張が強化される。
これにより、より小さなバッチサイズで、スクラッチからNLGモデルをトレーニングすることができます。
- 参考スコア(独自算出の注目度): 79.4205462326301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Score function-based natural language generation (NLG) approaches such as
REINFORCE, in general, suffer from low sample efficiency and training
instability problems. This is mainly due to the non-differentiable nature of
the discrete space sampling and thus these methods have to treat the
discriminator as a black box and ignore the gradient information. To improve
the sample efficiency and reduce the variance of REINFORCE, we propose a novel
approach, TaylorGAN, which augments the gradient estimation by off-policy
update and the first-order Taylor expansion. This approach enables us to train
NLG models from scratch with smaller batch size -- without maximum likelihood
pre-training, and outperforms existing GAN-based methods on multiple metrics of
quality and diversity. The source code and data are available at
https://github.com/MiuLab/TaylorGAN
- Abstract(参考訳): ReINFORCEのようなスコア関数ベースの自然言語生成(NLG)アプローチは、サンプル効率の低下や不安定性の訓練に悩まされている。
これは主に離散空間サンプリングの非微分的性質のためであり、これらの方法は判別器をブラックボックスとして扱い、勾配情報を無視しなければならない。
サンプル効率の向上とREINFORCEのばらつきの低減を目的として,オフ・ポリシー更新と1次テイラー展開による勾配推定を向上する新しいアプローチTaylorGANを提案する。
このアプローチにより、NLGモデルをスクラッチからより小さなバッチサイズでトレーニングすることが可能になります -- 最大限の事前トレーニングをすることなく、品質と多様性の複数の指標において、既存のGANベースのメソッドよりも優れています。
ソースコードとデータはhttps://github.com/miulab/taylorganで入手できる。
関連論文リスト
- Resource-Adaptive Newton's Method for Distributed Learning [16.588456212160928]
本稿では,Newtonの手法の限界を克服するRANLというアルゴリズムを提案する。
従来の一階法とは異なり、RANLは問題の条件数から著しく独立している。
論文 参考訳(メタデータ) (2023-08-20T04:01:30Z) - Just One Byte (per gradient): A Note on Low-Bandwidth Decentralized
Language Model Finetuning Using Shared Randomness [86.61582747039053]
分散環境での言語モデルトレーニングは、交換の通信コストによって制限される。
分散微調整を低帯域幅で行うために,共有ランダムネスを用いた最近の作業を拡張した。
論文 参考訳(メタデータ) (2023-06-16T17:59:51Z) - Tailoring Language Generation Models under Total Variation Distance [55.89964205594829]
ニューラルネットワーク生成の標準パラダイムは、最適化方法として最大推定(MLE)を採用する。
言語生成に適用するための実践的境界を開発する。
本稿では,TVD推定のトレードオフのバランスをとるためのTaiLr の目標について紹介する。
論文 参考訳(メタデータ) (2023-02-26T16:32:52Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Research of Damped Newton Stochastic Gradient Descent Method for Neural
Network Training [6.231508838034926]
勾配降下(SGD)のような一階法は、最近ディープニューラルネットワーク(DNN)を訓練するための一般的な最適化方法です。
本稿では、平均二乗誤差(MSE)の回帰問題とクロスエントロピー損失(CEL)の分類問題に対するDNNの訓練方法として、DN-SGD(Damped Newton Descent)とGGD-DN(Gradient Descent Damped Newton)を提案する。
提案手法はパラメータのごく一部を正確に計算し,計算コストを大幅に削減し,sgdよりも高速かつ高精度な学習プロセスを実現する。
論文 参考訳(メタデータ) (2021-03-31T02:07:18Z) - Population Gradients improve performance across data-sets and
architectures in object classification [6.17047113475566]
ニューラルネットワーク(NN)の学習中に勾配を計算する新しい手法を提案する。
アーキテクチャ、データセット、ハイパーパラメータ値、トレーニング長、モデルサイズにわたる最終的なパフォーマンスを大幅に改善する。
私たちがテストした広範囲な状況において有効であるのに加えて、パフォーマンスの向上(例えば、F1)は他の広範なパフォーマンス改善手法のどれよりも高いか高いかのどちらかです。
論文 参考訳(メタデータ) (2020-10-23T09:40:23Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad
Samples [67.11669996924671]
GAN(Generative Adversarial Network)トレーニングアルゴリズムに,簡単な修正(一行のコード)を導入する。
ジェネレータパラメータを更新するとき、批判者が最も現実的に評価するバッチの要素から勾配のコントリビューションをゼロにします。
このトップk更新の手順が一般的に適用可能な改善であることを示す。
論文 参考訳(メタデータ) (2020-02-14T19:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。