論文の概要: Fuzzy Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2110.14588v1
- Date: Wed, 27 Oct 2021 17:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 15:04:32.770370
- Title: Fuzzy Generative Adversarial Networks
- Title(参考訳): ファジィ生成逆ネットワーク
- Authors: Ryan Nguyen, Shubhendu Kumar Singh, and Rahul Rai
- Abstract要約: Generative Adversarial Networks (GAN) は、データ生成と半教師付き分類のためのよく知られたツールである。
本稿では,平均絶対誤差(MAE)と平均二乗誤差(MSE)によるGANの回帰能力の向上を示す手法を提案する。
ファジィ論理層を追加することで、GANの回帰処理能力が向上し、最も望ましい注入位置は問題固有であることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) are well-known tools for data
generation and semi-supervised classification. GANs, with less labeled data,
outperform Deep Neural Networks (DNNs) and Convolutional Neural Networks (CNNs)
in classification across various tasks, this shows promise for developing GANs
capable of trespassing into the domain of semi-supervised regression. However,
developing GANs for regression introduce two major challenges: (1) inherent
instability in the GAN formulation and (2) performing regression and achieving
stability simultaneously. This paper introduces techniques that show
improvement in the GANs' regression capability through mean absolute error
(MAE) and mean squared error (MSE). We bake a differentiable fuzzy logic system
at multiple locations in a GAN because fuzzy logic systems have demonstrated
high efficacy in classification and regression settings. The fuzzy logic takes
the output of either or both the generator and the discriminator to either or
both predict the output, $y$, and evaluate the generator's performance. We
outline the results of applying the fuzzy logic system to CGAN and summarize
each approach's efficacy. This paper shows that adding a fuzzy logic layer can
enhance GAN's ability to perform regression; the most desirable injection
location is problem-specific, and we show this through experiments over various
datasets. Besides, we demonstrate empirically that the fuzzy-infused GAN is
competitive with DNNs.
- Abstract(参考訳): Generative Adversarial Networks (GAN) は、データ生成と半教師付き分類のためのよく知られたツールである。
ラベル付きデータの少ないGANは、さまざまなタスクの分類においてDeep Neural Networks(DNN)とConvolutional Neural Networks(CNN)よりも優れており、半教師付き回帰の領域に侵入可能なGANを開発することを約束している。
しかし、回帰のためのGANの開発には、(1)GANの定式化における固有の不安定性と(2)回帰を行い、同時に安定性を達成するという2つの大きな課題が伴う。
本稿では,平均絶対誤差(MAE)と平均二乗誤差(MSE)によるGANの回帰能力の向上を示す手法を提案する。
ファジィ論理系は分類や回帰設定において高い有効性を示したため,gan内の複数の場所で微分可能なファジィ論理系を焼く。
ファジィ論理は、ジェネレータと判別器の出力を1つまたは両方取り、出力、y$を予測し、ジェネレータの性能を評価する。
本稿では,ファジィ論理系をCGANに適用し,各アプローチの有効性を概説する。
本稿では, ファジィ論理層を追加することで, GANの回帰処理能力を高めることができることを示す。
さらに, ファジィ注入型GANはDNNと競合することを示す。
関連論文リスト
- DiffGAN: A Test Generation Approach for Differential Testing of Deep Neural Networks [0.30292136896203486]
DiffGANはディープニューラルネットワーク(DNN)の差分テストのためのブラックボックステスト画像生成手法である
それは多様で有効なトリガー入力を生成し、モデル間の振る舞いの相違を明らかにする。
その結果、DiffGANはSOTAベースラインを著しく上回り、同じ予算内で4倍のインプットをトリガーし、多様性と妥当性が向上した。
論文 参考訳(メタデータ) (2024-10-15T23:49:01Z) - Boosting Sample Efficiency and Generalization in Multi-agent Reinforcement Learning via Equivariance [34.322201578399394]
MARL(Multi-Agent Reinforcement Learning)は、サンプルの非効率性と一般化の欠如に苦慮する。
探索型等変グラフニューラルネットワーク(E2GN2)を提案する。
E2GN2は, 試料効率, 最終報酬収束率, 標準GNNよりも2x-5倍向上したことを示す。
論文 参考訳(メタデータ) (2024-10-03T15:25:37Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Improved Convergence Guarantees for Shallow Neural Networks [91.3755431537592]
勾配降下法により訓練された深度2ニューラルネットの収束度を世界最小とする。
我々のモデルには、二次損失関数による回帰、完全連結フィードフォワードアーキテクチャ、RelUアクティベーション、ガウスデータインスタンス、逆ラベルといった特徴がある。
彼らは、少なくとも我々のモデルでは、収束現象がNTK体制をはるかに超越していることを強く示唆している」。
論文 参考訳(メタデータ) (2022-12-05T14:47:52Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Inferential Wasserstein Generative Adversarial Networks [9.859829604054127]
自動エンコーダとWGANを融合する原理的フレームワークである新しい推論ワッサースタインGAN(iWGAN)モデルを導入する。
iWGANはモード崩壊の症状を大幅に緩和し、収束を高速化し、各サンプルの品質チェックの測定を行うことができる。
論文 参考訳(メタデータ) (2021-09-13T00:43:21Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - DO-GAN: A Double Oracle Framework for Generative Adversarial Networks [28.904057977044374]
GAN(Generative Adversarial Networks)を育成するための新しいアプローチを提案します。
私たちはgeneratorとdiscriminator oraclesを使ってダブルoracleフレームワークをデプロイします。
我々は、バニラGAN、ディープ・コンボリューショナルGAN、スペクトル正規化GAN、スタックドGANなどの確立されたGANアーキテクチャに適用する。
論文 参考訳(メタデータ) (2021-02-17T05:11:18Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z) - xAI-GAN: Enhancing Generative Adversarial Networks via Explainable AI
Systems [16.360144499713524]
Generative Adversarial Networks (GAN) は、現実的な画像、音楽、テキスト、その他のデータの生成に成功しているディープニューラルネットワーク(DNN)の革命的なクラスである。
本稿では、AI(xAI)システムにおける最近の進歩を活用して、識別器からジェネレータへの「よりリッチな」修正フィードバックを提供する新しいGANクラスを提案する。
我々は、xAI-GANが標準GANよりも、MNISTとFMNISTの両方のデータセットで生成された画像の品質を最大23.18%向上させるのを観察する。
論文 参考訳(メタデータ) (2020-02-24T18:38:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。