論文の概要: Effect of Input Noise Dimension in GANs
- arxiv url: http://arxiv.org/abs/2004.06882v1
- Date: Wed, 15 Apr 2020 04:56:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 02:36:19.264100
- Title: Effect of Input Noise Dimension in GANs
- Title(参考訳): GANにおける入力雑音の影響
- Authors: Manisha Padala, Debojit Das, and Sujit Gujar
- Abstract要約: 入力雑音の寸法がGANの性能に及ぼす影響について検討する。
最適結果に対する入力雑音の適切な次元は、使用するデータセットとアーキテクチャに依存することを示す。
- 参考スコア(独自算出の注目度): 7.770973053439527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) are by far the most successful
generative models. Learning the transformation which maps a low dimensional
input noise to the data distribution forms the foundation for GANs. Although
they have been applied in various domains, they are prone to certain challenges
like mode collapse and unstable training. To overcome the challenges,
researchers have proposed novel loss functions, architectures, and optimization
methods. In our work here, unlike the previous approaches, we focus on the
input noise and its role in the generation.
We aim to quantitatively and qualitatively study the effect of the dimension
of the input noise on the performance of GANs. For quantitative measures,
typically \emph{Fr\'{e}chet Inception Distance (FID)} and \emph{Inception Score
(IS)} are used as performance measure on image data-sets. We compare the FID
and IS values for DCGAN and WGAN-GP. We use three different image data-sets --
each consisting of different levels of complexity. Through our experiments, we
show that the right dimension of input noise for optimal results depends on the
data-set and architecture used. We also observe that the state of the art
performance measures does not provide enough useful insights. Hence we conclude
that we need further theoretical analysis for understanding the relationship
between the low dimensional distribution and the generated images. We also
require better performance measures.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、最も成功した生成モデルである。
低次元の入力ノイズをデータ分布にマッピングする変換を学習することはganの基礎となる。
様々な分野に適用されているが、モードの崩壊や不安定なトレーニングといった特定の課題に直面している。
この課題を克服するため、研究者は新たな損失関数、アーキテクチャ、最適化手法を提案している。
ここでの作業では、従来のアプローチとは異なり、入力ノイズとその世代における役割に焦点を当てています。
入力雑音の次元がGANの性能に与える影響を定量的に定性的に研究することを目的としている。
定量的尺度では、画像データセットのパフォーマンス指標として、通常 \emph{Fr\'{e}chet Inception Distance (FID) と \emph{Inception Score (IS) が用いられる。
我々はDCGANとWGAN-GPのFIDとIS値を比較した。
3つの異なるイメージデータセット - それぞれが異なるレベルの複雑さで構成されています。
本実験により,最適結果に対する入力雑音の適切な次元は,使用するデータセットとアーキテクチャに依存することを示した。
また,アートパフォーマンス対策の現状は十分な洞察を提供していないことも確認した。
したがって,低次元分布と生成画像の関係を理解するためには,さらなる理論的解析が必要である。
パフォーマンスの向上も必要です。
関連論文リスト
- Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution [4.577685231084759]
本稿では,フローフィールドデータの超高分解能化のための特徴強調型ニューラルインシシット表現(FFEINR)を提案する。
モデル構造とサンプリング分解能の観点から、暗黙のニューラル表現を最大限に活用することができる。
FFEINRのトレーニングプロセスは、入力層に機能拡張を導入することで容易になる。
論文 参考訳(メタデータ) (2023-08-24T02:28:18Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z) - Online Graph Completion: Multivariate Signal Recovery in Computer Vision [29.89364298411089]
グラフ上で定義された「完了」問題について検討し、追加測定の要求を順次行う必要がある。
グラフのフーリエ領域における最適化モデルを設計し、適応的な部分モジュラー性に基づくアイデアが実際にうまく機能するアルゴリズムをどう提供するかを記述する。
Imgurから収集した大量の画像では、分類が難しい画像について有望な結果が得られます。
論文 参考訳(メタデータ) (2020-08-12T01:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。