論文の概要: CNN-based Euler's Elastica Inpainting with Deep Energy and Deep Image
Prior
- arxiv url: http://arxiv.org/abs/2207.07921v1
- Date: Sat, 16 Jul 2022 12:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 16:18:29.663750
- Title: CNN-based Euler's Elastica Inpainting with Deep Energy and Deep Image
Prior
- Title(参考訳): 深部エネルギーと深部画像を用いたeuler's elasticaのcnn解析
- Authors: Karl Schrader, Tobias Alt, Joachim Weickert, Michael Ertel
- Abstract要約: 我々は、EulerのElasticaで塗布をシミュレートする最初のニューラルネットワークを設計する。
ニューラルネットワークの損失として変動エネルギーを利用するディープエネルギの概念を用いる。
この結果は, 弾性率に基づく形状整形に関する最先端のアルゴリズムと同等である。
- 参考スコア(独自算出の注目度): 10.848775419008442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Euler's elastica constitute an appealing variational image inpainting model.
It minimises an energy that involves the total variation as well as the level
line curvature. These components are transparent and make it attractive for
shape completion tasks. However, its gradient flow is a singular, anisotropic,
and nonlinear PDE of fourth order, which is numerically challenging: It is
difficult to find efficient algorithms that offer sharp edges and good rotation
invariance. As a remedy, we design the first neural algorithm that simulates
inpainting with Euler's Elastica. We use the deep energy concept which employs
the variational energy as neural network loss. Furthermore, we pair it with a
deep image prior where the network architecture itself acts as a prior. This
yields better inpaintings by steering the optimisation trajectory closer to the
desired solution. Our results are qualitatively on par with state-of-the-art
algorithms on elastica-based shape completion. They combine good rotation
invariance with sharp edges. Moreover, we benefit from the high efficiency and
effortless parallelisation within a neural framework. Our neural elastica
approach only requires 3x3 central difference stencils. It is thus much simpler
than other well-performing algorithms for elastica inpainting. Last but not
least, it is unsupervised as it requires no ground truth training data.
- Abstract(参考訳): オイラーの弾性体は魅力的な変分画像の塗装モデルを構成する。
全体の変動とレベルラインの曲率を伴うエネルギーを最小化する。
これらのコンポーネントは透明で、形状完了タスクに魅力的です。
しかし、勾配流は4階の特異、異方性、非線形PDEであり、数値的に困難である: 鋭いエッジと良好な回転不変性を提供する効率的なアルゴリズムを見つけることは困難である。
治療として,eulerのelasticaによるインペインティングをシミュレートする最初のニューラルアルゴリズムを設計した。
ニューラルネットワークの損失として変動エネルギーを利用するディープエネルギーの概念を用いる。
さらに、ネットワークアーキテクチャ自体が先行として機能する、より深いイメージと組み合わせる。
これにより、最適化軌道を所望の解に近づけることで、より良い塗り込みが得られる。
この結果はelasticaベースの形状補完に関する最先端アルゴリズムと同程度に定性的である。
良好な回転不変性と鋭いエッジを組み合わせる。
さらに、ニューラルフレームワーク内での高効率かつ無駄な並列化の恩恵を受ける。
我々の神経弾性アプローチは3x3中心差ステンシルのみを必要とする。
したがって、他の弾性体塗布の優れたアルゴリズムよりもはるかに単純である。
最後に、基礎的な真理のトレーニングデータを必要としないため、教師なしです。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Euler's Elastica Based Cartoon-Smooth-Texture Image Decomposition [4.829677240798159]
グレースケール画像を3つの異なる成分に分解する新しいモデルを提案する。
構造部は強い境界と強い光-暗黒遷移のある領域、滑らかな部分、柔らかい影と影、振動、テクスチャとノイズを表す。
論文 参考訳(メタデータ) (2024-07-03T03:42:33Z) - Efficient and Effective Implicit Dynamic Graph Neural Network [42.49148111696576]
Indicit Dynamic Graph Neural Network (IDGNN) は動的グラフのための新しい暗黙的ニューラルネットワークである。
IDGNNの鍵となる特徴は、それが実証的に良好である、すなわち、固定点表現を持つことが理論的に保証されていることである。
論文 参考訳(メタデータ) (2024-06-25T19:07:21Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - On Model Compression for Neural Networks: Framework, Algorithm, and Convergence Guarantee [21.818773423324235]
本稿では,低ランク近似と重み近似の2つのモデル圧縮手法に焦点を当てた。
本稿では,非最適化の新たな視点から,モデル圧縮のための全体論的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-13T02:14:42Z) - Visual Explanations from Deep Networks via Riemann-Stieltjes Integrated
Gradient-based Localization [0.24596929878045565]
我々は,CNNの予測のための視覚的説明を生成する新しい手法を提案する。
本手法はネットワークの任意の層に適用可能であり, 積分勾配と同様, 勾配の消失問題の影響を受けない。
Grad-CAMと比較して、我々のアルゴリズムが生成したヒートマップは興味のある領域に集中しており、数値計算はより安定である。
論文 参考訳(メタデータ) (2022-05-22T18:30:38Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Neural Knitworks: Patched Neural Implicit Representation Networks [1.0470286407954037]
画像合成を実現する自然画像の暗黙的表現学習のためのアーキテクチャであるKnitworkを提案する。
私たちの知る限りでは、画像のインペインティング、超解像化、デノイングといった合成作業に適した座標ベースのパッチの実装は、これが初めてである。
その結果, ピクセルではなくパッチを用いた自然な画像のモデリングにより, 忠実度が高い結果が得られた。
論文 参考訳(メタデータ) (2021-09-29T13:10:46Z) - A Flexible Framework for Designing Trainable Priors with Adaptive
Smoothing and Game Encoding [57.1077544780653]
我々は、前方通過を非滑らかな凸最適化問題として解釈できるニューラルネットワーク層の設計とトレーニングのための一般的なフレームワークを紹介する。
グラフのノードに代表されるローカルエージェントによって解決され、正規化関数を介して相互作用する凸ゲームに焦点を当てる。
このアプローチは、訓練可能なエンドツーエンドのディープモデル内で、古典的な画像の事前使用を可能にするため、画像の問題を解決するために魅力的である。
論文 参考訳(メタデータ) (2020-06-26T08:34:54Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。