論文の概要: A game-theoretic approach for Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2003.13637v2
- Date: Mon, 14 Sep 2020 16:27:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 07:18:58.858293
- Title: A game-theoretic approach for Generative Adversarial Networks
- Title(参考訳): 生成型adversarial networkに対するゲーム理論的アプローチ
- Authors: Barbara Franci and Sergio Grammatico
- Abstract要約: GAN(Generative Adversarial Network)は、生成モデルの一種で、正確なサンプルを作成することで知られている。
彼らの実装の主なボトルネックは、ニューラルネットワークのトレーニングが非常に難しいことだ。
本稿では,GANに対する緩和されたフォワードバックワードアルゴリズムを提案する。
ゲームの擬階写像が単調であるとき、正確な解やその近傍に収束することが証明される。
- 参考スコア(独自算出の注目度): 2.995087247817663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) are a class of generative models,
known for producing accurate samples. The key feature of GANs is that there are
two antagonistic neural networks: the generator and the discriminator. The main
bottleneck for their implementation is that the neural networks are very hard
to train. One way to improve their performance is to design reliable algorithms
for the adversarial process. Since the training can be cast as a stochastic
Nash equilibrium problem, we rewrite it as a variational inequality and
introduce an algorithm to compute an approximate solution. Specifically, we
propose a stochastic relaxed forward-backward algorithm for GANs. We prove that
when the pseudogradient mapping of the game is monotone, we have convergence to
an exact solution or in a neighbourhood of it.
- Abstract(参考訳): generative adversarial network (gans) は、正確なサンプルを生成することで知られている生成モデルの一種である。
gansの重要な特徴は、ジェネレータと判別器の2つの敵対的ニューラルネットワークが存在することである。
彼らの実装の主なボトルネックは、ニューラルネットワークのトレーニングが非常に難しいことだ。
性能を改善する一つの方法は、敵のプロセスに信頼できるアルゴリズムを設計することである。
トレーニングは確率的ナッシュ均衡問題としてキャストできるので、変分不等式として書き直し、近似解を計算するアルゴリズムを導入する。
具体的には,GANに対する確率的緩和前向きアルゴリズムを提案する。
ゲームの擬次写像が単調であると証明すると、我々は正確な解またはその近傍に収束する。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Generative Adversarial Learning of Sinkhorn Algorithm Initializations [0.0]
我々は、エントロピーOT双対問題を通じてアルゴリズムの初期化を学ぶためにニューラルネットワークを巧みに訓練することで、収束を著しく加速できることを示した。
我々のネットワークは,正規化輸送距離を数パーセントの誤差に近似するために,スタンドアロンのOTソルバとしても使用できることを示す。
論文 参考訳(メタデータ) (2022-11-30T21:56:09Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - On the Reproducibility of Neural Network Predictions [52.47827424679645]
そこで本研究では, チャーン問題について検討し, 原因因子を同定し, 緩和する2つの簡単な方法を提案する。
最初に、標準的な画像分類タスクであっても、チャーンが問題であることを示す。
我々は,予測信頼度を高めるために,エントロピー正規化器を提案する。
両手法の有効性を実証的に示し, 基礎モデルの精度を向上しながら, チャーン低減効果を示す。
論文 参考訳(メタデータ) (2021-02-05T18:51:01Z) - Training Generative Adversarial Networks via stochastic Nash games [2.995087247817663]
GAN(Generative Adversarial Network)は、ジェネレータと識別器という2つの対角ニューラルネットワークを持つ生成モデルのクラスである。
データの数が増加すると、正確な解に収束することを示す。
また, サンプル数が少ない場合, SRFBアルゴリズムの平均変種を解の近傍に収束させることも示した。
論文 参考訳(メタデータ) (2020-10-17T09:07:40Z) - Rotation Averaging with Attention Graph Neural Networks [4.408728798697341]
大規模多重回転平均化のためのリアルタイム・ロバストな解法を提案する。
本手法では,ネットワーク設計における重み付け平均化とアテンション機構を用いて,すべての観測結果を用いて,異常値の影響を抑える。
その結果、より速く、より堅牢なネットワークとなり、以前のニューラルアプローチよりも少ないサンプルでトレーニングできる。
論文 参考訳(メタデータ) (2020-10-14T02:07:19Z) - How Powerful are Shallow Neural Networks with Bandlimited Random
Weights? [25.102870584507244]
制限深度2バンドランダムニューラルネットワークの表現力について検討する。
ランダムネットは、隠れた層パラメータがランダムな帯域幅で凍結されるニューラルネットワークである。
論文 参考訳(メタデータ) (2020-08-19T13:26:12Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - Generative Adversarial Trainer: Defense to Adversarial Perturbations
with GAN [13.561553183983774]
本稿では, 生成的対角ネットワークを用いて, ニューラルネットワークを敵の例に頑健にするための新しい手法を提案する。
ジェネレータネットワークは、各画像の勾配を用いて分類器ネットワークを騙し易くする対向摂動を生成する。
我々の対戦型トレーニングフレームワークは、Dropoutのような他の正規化手法よりも効率よくオーバーフィッティングを減らし、性能を向上します。
論文 参考訳(メタデータ) (2017-05-09T15:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。