論文の概要: A Note on the Regularity of Images Generated by Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2204.10588v1
- Date: Fri, 22 Apr 2022 09:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 14:18:19.862317
- Title: A Note on the Regularity of Images Generated by Convolutional Neural
Networks
- Title(参考訳): 畳み込みニューラルネットワークによる画像の規則性に関する一考察
- Authors: Andreas Habring and Martin Holler
- Abstract要約: 畳み込みニューラルネットワークによって生成された画像の規則性を分析する。
その結果,画像がネットワーク出力である場合,ネットワーク重みの基本的なL2正規化を控えることが示唆された。
- 参考スコア(独自算出の注目度): 1.9967248318784414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The regularity of images generated by convolutional neural networks, such as
the U-net, generative adversarial networks, or the deep image prior, is
analyzed. In a resolution-independent, infinite dimensional setting, it is
shown that such images, represented as functions, are always continuous and, in
some circumstances, even continuously differentiable, contradicting the widely
accepted modeling of sharp edges in images via jump discontinuities. While such
statements require an infinite dimensional setting, the connection to
(discretized) neural networks used in practice is made by considering the limit
as the resolution approaches infinity. As practical consequence, the results of
this paper suggest to refrain from basic L2 regularization of network weights
in case of images being the network output.
- Abstract(参考訳): 畳み込みニューラルネットワークによって生成された画像の規則性、例えば、U-net、生成的敵ネットワーク、または、より深い画像の解析を行う。
分解独立で無限次元の設定では、そのようなイメージは常に連続であり、ある場合には連続的に微分可能であり、ジャンプ不連続性による画像のシャープエッジのモデリングが広く受け入れられていることに矛盾する。
このようなステートメントは無限次元の設定を必要とするが、実際に使用される(離散化された)ニューラルネットワークへの接続は、解像度が無限大に近づくときの限界を考慮して行われる。
その結果,本研究では,画像がネットワーク出力の場合のネットワーク重みの基本的なL2正規化を控えることが示唆された。
関連論文リスト
- Rotation Equivariant Proximal Operator for Deep Unfolding Methods in Image Restoration [62.41329042683779]
本稿では, 回転対称性を組み込んだ高精度な回転同変近位ネットワークを提案する。
本研究は, 回転対称性の先行を深く展開する枠組みに効果的に組み込む, 高精度な回転同変近位ネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-25T11:53:06Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Implicit regularization of deep residual networks towards neural ODEs [8.075122862553359]
我々は、ニューラルネットワークに対する深い残留ネットワークの暗黙的な正規化を確立する。
ネットワークがニューラルなODEの離散化であるなら、そのような離散化はトレーニングを通して維持される。
論文 参考訳(メタデータ) (2023-09-03T16:35:59Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Random Neural Networks in the Infinite Width Limit as Gaussian Processes [16.75218291152252]
本稿では、入力次元、出力次元、深さが固定された状態において、ランダムな重みとバイアスを持つ完全連結ニューラルネットワークがガウス過程に収束することを示す。
以前の研究とは異なり、収束は重みの分布と非常に一般的な非線形性に対してのみモーメント条件を仮定して示される。
論文 参考訳(メタデータ) (2021-07-04T07:00:20Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Joint Estimation of Image Representations and their Lie Invariants [57.3768308075675]
画像は世界の状態とコンテンツの両方をエンコードする。
この情報の自動抽出は、画像表現に固有の高次元かつ絡み合った符号化のために困難である。
本稿では,これらの課題の解決を目的とした2つの理論的アプローチを紹介する。
論文 参考訳(メタデータ) (2020-12-05T00:07:41Z) - Interpreting Spatially Infinite Generative Models [40.453301580034804]
近年の研究では、空間ノイズベクトルを完全な畳み込みニューラルネットワークに入力することで、任意の解像度出力画像の生成と任意の解像度トレーニング画像のトレーニングが可能であることが示されている。
空間過程への接続を描画することで、無限空間生成のしっかりとした理論的解釈を提供する。
世界地図生成、パノラマ画像、テクスチャ合成の実験は、任意の大きさの画像を効率的に生成する$infty$-GANの能力を検証する。
論文 参考訳(メタデータ) (2020-07-24T09:00:41Z) - A Shooting Formulation of Deep Learning [19.51427735087011]
本稿では,ネットワーク層ごとのパラメータ化から,最適ネットワーク上でのパラメータ化へと視点を転換するシューティング定式化を提案する。
拡張性のために,連続深度ニューラルネットワークの最適重み軌跡を同定する新しい粒子アンサンブルパラメトリゼーションを提案する。
論文 参考訳(メタデータ) (2020-06-18T07:36:04Z) - Robustness Certification of Generative Models [8.766022970635898]
ジェネレーティブネットワークは、潜時空間を介して連続的なニューラルネットワークを特定するために使用できる。
ネットワークや空間における興味深い集合を検証できるので,これが有用であることを示す。
論文 参考訳(メタデータ) (2020-04-30T13:23:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。