論文の概要: Improved Input Reprogramming for GAN Conditioning
- arxiv url: http://arxiv.org/abs/2201.02692v1
- Date: Fri, 7 Jan 2022 22:06:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 14:40:48.960754
- Title: Improved Input Reprogramming for GAN Conditioning
- Title(参考訳): ganコンディショニングの入力再プログラミングの改善
- Authors: Tuan Dinh, Daewon Seo, Zhixu Du, Liang Shang, and Kangwook Lee
- Abstract要約: 本研究では,事前学習した未条件GANをラベル付きデータを用いて条件付きGANに変換することを目標とするGAN条件付け問題について検討する。
まず,この問題に対する条件付きGANトレーニング,微調整,入力再プログラミングの3つのアプローチを同定し,解析する。
InRep+は、非可逆ニューラルネットワークとPositive-Unlabeled (PU)学習の新たな使用によって、既存の問題に対処する。
- 参考スコア(独自算出の注目度): 16.120582026481785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the GAN conditioning problem, whose goal is to convert a pretrained
unconditional GAN into a conditional GAN using labeled data. We first identify
and analyze three approaches to this problem -- conditional GAN training from
scratch, fine-tuning, and input reprogramming. Our analysis reveals that when
the amount of labeled data is small, input reprogramming performs the best.
Motivated by real-world scenarios with scarce labeled data, we focus on the
input reprogramming approach and carefully analyze the existing algorithm.
After identifying a few critical issues of the previous input reprogramming
approach, we propose a new algorithm called InRep+. Our algorithm InRep+
addresses the existing issues with the novel uses of invertible neural networks
and Positive-Unlabeled (PU) learning. Via extensive experiments, we show that
InRep+ outperforms all existing methods, particularly when label information is
scarce, noisy, and/or imbalanced. For instance, for the task of conditioning a
CIFAR10 GAN with 1% labeled data, InRep+ achieves an average Intra-FID of
82.13, whereas the second-best method achieves 114.51.
- Abstract(参考訳): 本研究では,事前学習した未条件GANをラベル付きデータを用いて条件付きGANに変換することを目標とするGAN条件付け問題について検討する。
まず,この問題に対する条件付きGANトレーニング,微調整,入力再プログラミングの3つのアプローチを同定し,解析する。
分析の結果,ラベル付きデータの量が小さい場合,入力再プログラミングが最適であることが判明した。
ラベル付きデータが少ない実世界のシナリオに触発され、入力再プログラミングアプローチに注目し、既存のアルゴリズムを慎重に分析する。
従来の入力再プログラミング手法の重要な問題をいくつか特定した後,inrep+と呼ばれる新しいアルゴリズムを提案する。
inrep+アルゴリズムは、インバータブルニューラルネットワークと正ラベル(pu)学習の新たな用途において、既存の問題に対処する。
InRep+は,ラベル情報が少なく,ノイズが少なく,不均衡な場合に,既存の手法よりも優れていることを示す。
例えば、1%のラベル付きデータでCIFAR10 GANを条件付けするタスクに対して、InRep+は平均FID82.13を達成し、第2のベストメソッドは114.51を達成している。
関連論文リスト
- AnoRand: A Semi Supervised Deep Learning Anomaly Detection Method by
Random Labeling [0.0]
異常検出(英: Anomaly detection)またはより一般的には異常検出(英: outliers detection)は、理論的および応用機械学習において最も人気があり、課題の1つである。
我々は、ディープラーニングアーキテクチャとランダムな合成ラベル生成を組み合わせることで、textbfAnoRandと呼ばれる新しい半教師付き異常検出手法を提案する。
論文 参考訳(メタデータ) (2023-05-28T10:53:34Z) - Learning Label Encodings for Deep Regression [10.02230163797581]
深い回帰ネットワークは、与えられた入力に対して連続的な値を予測する問題の解決に広く利用されている。
回帰のためのラベル符号化の空間は大きい。
本稿では、ネットワーク全体とそのラベルエンコーディングのエンドツーエンドトレーニングのための正規化ラベル学習(RLEL)を提案する。
論文 参考訳(メタデータ) (2023-03-04T00:11:34Z) - Mutual Information Learned Regressor: an Information-theoretic Viewpoint
of Training Regression Systems [10.314518385506007]
回帰問題を解くための既存の慣習は平均二乗誤差(MSE)最小化アプローチである。
近年,Yiらは相互情報に基づく教師あり学習フレームワークを提案し,ラベルエントロピー正規化を導入した。
本稿では,相互情報に基づく教師あり学習フレームワークにおける回帰について検討する。
論文 参考訳(メタデータ) (2022-11-23T03:43:22Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Improving Passage Retrieval with Zero-Shot Question Generation [109.11542468380331]
オープンな質問応答における経路検索を改善するための,シンプルで効果的な再ランク付け手法を提案する。
再ランカは、学習済み言語モデルを用いて、検索されたパスに条件付けられた入力質問の確率を算出するゼロショット質問生成モデルを用いて、検索されたパスを再スコアする。
論文 参考訳(メタデータ) (2022-04-15T14:51:41Z) - Interpolation-based Contrastive Learning for Few-Label Semi-Supervised
Learning [43.51182049644767]
半教師付き学習(SSL)は,ラベルが限定された強力なモデルを構築する上で,有効な手法であることが長年証明されてきた。
摂動サンプルを元のものと類似した予測を強制する正規化に基づく手法が注目されている。
本稿では,学習ネットワークの埋め込みを誘導し,サンプル間の線形変化を誘導する新たな対照的な損失を提案する。
論文 参考訳(メタデータ) (2022-02-24T06:00:05Z) - Stacking Neural Network Models for Automatic Short Answer Scoring [0.0]
本稿では,ニューラルネットワークとXGBoostに基づく重ね合わせモデルを用いて文埋め込み機能を持つ分類プロセスを提案する。
ベストモデルではF1スコアの0.821が、同じデータセットで前の作業を上回った。
論文 参考訳(メタデータ) (2020-10-21T16:00:09Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Gradient Descent in RKHS with Importance Labeling [58.79085525115987]
我々は重要ラベル付け問題について研究し、ラベルなしデータが多く与えられている。
ラベルなしデータの情報サブセットを効果的に選択できる新しい重要ラベル方式を提案する。
論文 参考訳(メタデータ) (2020-06-19T01:55:00Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z) - Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad
Samples [67.11669996924671]
GAN(Generative Adversarial Network)トレーニングアルゴリズムに,簡単な修正(一行のコード)を導入する。
ジェネレータパラメータを更新するとき、批判者が最も現実的に評価するバッチの要素から勾配のコントリビューションをゼロにします。
このトップk更新の手順が一般的に適用可能な改善であることを示す。
論文 参考訳(メタデータ) (2020-02-14T19:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。