論文の概要: A self-adapting super-resolution structures framework for automatic
design of GAN
- arxiv url: http://arxiv.org/abs/2106.06011v1
- Date: Thu, 10 Jun 2021 19:11:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 07:42:51.467242
- Title: A self-adapting super-resolution structures framework for automatic
design of GAN
- Title(参考訳): GAN自動設計のための自己適応型超解像構造フレームワーク
- Authors: Yibo Guo, Haidi Wang, Yiming Fan, Shunyao Li, Mingliang Xu
- Abstract要約: 本稿では,超高解像度画像再構成生成ネットワークフレームワークを提案する。
生成器と識別器のハイパーパラメータを最適化するためにベイズ最適化を用いる。
本手法は,GANの最適化ポリシとしてベイズ最適化を採用する。
- 参考スコア(独自算出の注目度): 15.351639834230383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the development of deep learning, the single super-resolution image
reconstruction network models are becoming more and more complex. Small changes
in hyperparameters of the models have a greater impact on model performance. In
the existing works, experts have gradually explored a set of optimal model
parameters based on empirical values or performing brute-force search. In this
paper, we introduce a new super-resolution image reconstruction generative
adversarial network framework, and a Bayesian optimization method used to
optimizing the hyperparameters of the generator and discriminator. The
generator is made by self-calibrated convolution, and discriminator is made by
convolution lays. We have defined the hyperparameters such as the number of
network layers and the number of neurons. Our method adopts Bayesian
optimization as a optimization policy of GAN in our model. Not only can find
the optimal hyperparameter solution automatically, but also can construct a
super-resolution image reconstruction network, reducing the manual workload.
Experiments show that Bayesian optimization can search the optimal solution
earlier than the other two optimization algorithms.
- Abstract(参考訳): ディープラーニングの発展に伴い、単一の超解像度画像再構成ネットワークモデルはますます複雑になりつつある。
モデルのハイパーパラメータの小さな変更は、モデルパフォーマンスに大きな影響を与えます。
既存の研究では、経験値やブルートフォース探索の実行に基づいて、専門家は徐々に最適なモデルパラメータのセットを探索してきた。
本稿では,新しい高分解能画像再構成生成対向ネットワークフレームワークと,生成器と識別器のハイパーパラメータを最適化するベイズ最適化手法を提案する。
発電機は自己校正された畳み込みで作られ、識別器は畳み込みによって作られる。
我々は,ネットワーク層数やニューロン数などのハイパーパラメータを定義した。
本手法は,GANの最適化ポリシとしてベイズ最適化を採用する。
最適なハイパーパラメータソリューションを自動で見つけるだけでなく、超高解像度画像再構成ネットワークの構築も可能で、手動の作業量を削減できる。
実験により、ベイズ最適化は他の2つの最適化アルゴリズムよりも早く最適解を探索できることが示されている。
関連論文リスト
- Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - DC and SA: Robust and Efficient Hyperparameter Optimization of
Multi-subnetwork Deep Learning Models [0.974672460306765]
マルチワークで構築されたモジュールアーキテクチャを用いたディープラーニングモデルの最適化のための2つの新しい戦略を提案する。
提案手法は最適化効率を最大23.62倍に向上し,最終性能は分類精度3.5%,回帰率4.4MSEに向上した。
論文 参考訳(メタデータ) (2022-02-24T00:29:05Z) - Automatic prior selection for meta Bayesian optimization with a case
study on tuning deep neural network optimizers [47.013395100497775]
このような高価なハイパーパラメータチューニング問題を効率的に解くための原理的アプローチを提案する。
BOの性能の鍵となるのは関数上の分布を指定および精製することであり、これは基礎となる関数の最適化を推論するために使われる。
我々は、一般的な画像やテキストデータセット上で、最先端に近いモデルの何万もの設定をトレーニングすることで、現実的なモデルトレーニング設定におけるアプローチを検証する。
論文 参考訳(メタデータ) (2021-09-16T20:46:26Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Better call Surrogates: A hybrid Evolutionary Algorithm for
Hyperparameter optimization [18.359749929678635]
機械学習(ML)モデルのハイパーパラメータ最適化のための代理支援進化アルゴリズム(EA)を提案する。
提案したSTEADEモデルは,まずRadialBasis関数を用いて目的関数のランドスケープを推定し,その知識を微分進化(differial Evolution)と呼ばれるEA技術に伝達する。
NeurIPS 2020のブラックボックス最適化課題の一環として、ハイパーパラメータ最適化問題に関するモデルを実証的に評価し、STEADEがバニラEAにもたらした改善を実証しました。
論文 参考訳(メタデータ) (2020-12-11T16:19:59Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Iterative Surrogate Model Optimization (ISMO): An active learning
algorithm for PDE constrained optimization with deep neural networks [14.380314061763508]
反復代理モデル最適化(ISMO)と呼ばれる新しい能動学習アルゴリズムを提案する。
このアルゴリズムはディープニューラルネットワークに基づいており、その重要な特徴は、ディープニューラルネットワークと基礎となる標準最適化アルゴリズムの間のフィードバックループを通じて、トレーニングデータの反復的な選択である。
論文 参考訳(メタデータ) (2020-08-13T07:31:07Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Automatic Setting of DNN Hyper-Parameters by Mixing Bayesian
Optimization and Tuning Rules [0.6875312133832078]
トレーニングおよび検証セット上で,ネットワークの結果を評価し解析するための新しいアルゴリズムを構築した。
我々は、一連のチューニングルールを使用して、新しいハイパーパラメータと/またはハイパーパラメータ検索スペースを減らし、より良い組み合わせを選択する。
論文 参考訳(メタデータ) (2020-06-03T08:53:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。