論文の概要: Restrained Generative Adversarial Network against Overfitting in Numeric
Data Augmentation
- arxiv url: http://arxiv.org/abs/2010.13549v1
- Date: Mon, 26 Oct 2020 13:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 20:07:33.200683
- Title: Restrained Generative Adversarial Network against Overfitting in Numeric
Data Augmentation
- Title(参考訳): 数値データ拡張におけるオーバーフィッティングに対する制約付きジェネレーティブ・アドバイサル・ネットワーク
- Authors: Wei Wang, Yimeng Chai, Tao Cui, Chuang Wang, Baohua Zhang, Yue Li, Yi
An
- Abstract要約: Generative Adversarial Network (GAN) は、画像データセットを増強する一般的なスキームの1つである。
本研究では, GAN における生成元 G が低次元空間における数値データの生成に失敗することを示す。
本稿では,過度な適合を抑制するため,損失関数の独立性を理論的に抑制する手法を提案する。
- 参考スコア(独自算出の注目度): 9.265768052866786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent studies, Generative Adversarial Network (GAN) is one of the popular
schemes to augment the image dataset. However, in our study we find the
generator G in the GAN fails to generate numerical data in lower-dimensional
spaces, and we address overfitting in the generation. By analyzing the Directed
Graphical Model (DGM), we propose a theoretical restraint, independence on the
loss function, to suppress the overfitting. Practically, as the Statically
Restrained GAN (SRGAN) and Dynamically Restrained GAN (DRGAN), two frameworks
are proposed to employ the theoretical restraint to the network structure. In
the static structure, we predefined a pair of particular network topologies of
G and D as the restraint, and quantify such restraint by the interpretable
metric Similarity of the Restraint (SR). While for DRGAN we design an
adjustable dropout module for the restraint function. In the widely carried out
20 group experiments, on four public numerical class imbalance datasets and
five classifiers, the static and dynamic methods together produce the best
augmentation results of 19 from 20; and both two methods simultaneously
generate 14 of 20 groups of the top-2 best, proving the effectiveness and
feasibility of the theoretical restraints.
- Abstract(参考訳): 最近の研究では、GAN(Generative Adversarial Network)が画像データセットを拡大する一般的なスキームの1つである。
しかし,本研究では,gan中のジェネレータgが低次元空間における数値データの生成に失敗し,生成の過剰性に対処する。
有向グラフィカルモデル (dgm) の解析により, オーバーフィッティングを抑制するために, 損失関数の独立性という理論的拘束性を提案する。
統計拘束型GAN (SRGAN) と動的拘束型GAN (DRGAN) の2つの枠組みが提案されている。
静的構造では、G と D の特定のネットワークトポロジのペアを制約として事前定義し、その制約を Restraint (SR) の解釈可能な計量類似性によって定量化する。
DRGANでは抑制機能のための調整可能なドロップアウトモジュールを設計する。
4つの一般数値クラス不均衡データセットと5つの分類器を用いた20グループ実験において、静的および動的手法を併用すると、20から19の最良の拡張結果が得られ、両者は同時にトップ2の20グループのうち14を生成し、理論的制約の有効性と実現可能性を示した。
関連論文リスト
- Nested Annealed Training Scheme for Generative Adversarial Networks [54.70743279423088]
本稿では、厳密な数学的理論的枠組みである複合機能段階GAN(CFG)に焦点を当てる。
CFGモデルとスコアベースモデルとの理論的関係を明らかにする。
CFG判別器の学習目的は最適D(x)を求めることと等価であることがわかった。
論文 参考訳(メタデータ) (2025-01-20T07:44:09Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - On the Convergence of (Stochastic) Gradient Descent for Kolmogorov--Arnold Networks [56.78271181959529]
Kolmogorov--Arnold Networks (KAN) はディープラーニングコミュニティで注目されている。
実験により、勾配降下(SGD)により最適化されたカンが、ほぼゼロに近い訓練損失を達成できることが示された。
論文 参考訳(メタデータ) (2024-10-10T15:34:10Z) - A Non-negative VAE:the Generalized Gamma Belief Network [49.970917207211556]
ガンマ信念ネットワーク(GBN)は、テキストデータ中の多層解釈可能な潜在表現を明らかにする可能性を実証している。
本稿では、一般化ガンマ信念ネットワーク(Generalized GBN)を導入し、元の線形生成モデルをより表現力のある非線形生成モデルに拡張する。
また、潜伏変数の後方分布を近似する上向きのワイブル推論ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-06T18:18:37Z) - Generative adversarial learning with optimal input dimension and its adaptive generator architecture [3.9043107077488797]
一般化GAN(Generalized GAN)と呼ばれる新しいフレームワークを導入する。
グループペナルティとアーキテクチャペナルティを取り入れることで、G-GANにはいくつかの興味深い特徴がある。
シミュレーションおよびベンチマークデータを用いて行った大規模な実験は、G-GANの優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-06T03:30:02Z) - Self-Contrastive Graph Diffusion Network [1.14219428942199]
我々は、自己コントラストグラフ拡散ネットワーク(SCGDN)と呼ばれる新しいフレームワークを提案する。
私たちのフレームワークは、注意モジュール(AttM)と拡散モジュール(DiFM)の2つの主要コンポーネントで構成されています。
既存の方法論とは異なり、SCGDNは「サンプリングバイアス」や意味的ドリフトを避ける拡張自由なアプローチである。
論文 参考訳(メタデータ) (2023-07-27T04:00:23Z) - Generative adversarial networks for data-scarce spectral applications [0.0]
合成スペクトルデータ生成分野におけるGANの応用について報告する。
CWGANは,低データ方式の性能向上を図り,サロゲートモデルとして機能することを示す。
論文 参考訳(メタデータ) (2023-07-14T16:27:24Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Fuzzy Generative Adversarial Networks [0.0]
Generative Adversarial Networks (GAN) は、データ生成と半教師付き分類のためのよく知られたツールである。
本稿では,平均絶対誤差(MAE)と平均二乗誤差(MSE)によるGANの回帰能力の向上を示す手法を提案する。
ファジィ論理層を追加することで、GANの回帰処理能力が向上し、最も望ましい注入位置は問題固有であることが示される。
論文 参考訳(メタデータ) (2021-10-27T17:05:06Z) - Deep Learning of Dynamic Subsurface Flow via Theory-guided Generative
Adversarial Network [0.0]
動的偏微分方程式(PDE)の解法として理論誘導生成逆数ネットワーク(TgGAN)を提案する。
不均一モデルパラメータを持つ動的地下流れに対してTgGANを提案する。
数値計算により,TgGANモデルは動的PDEの深層学習において堅牢で信頼性が高いことが示された。
論文 参考訳(メタデータ) (2020-06-02T02:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。