論文の概要: Blind Image Inpainting with Sparse Directional Filter Dictionaries for
Lightweight CNNs
- arxiv url: http://arxiv.org/abs/2205.06597v1
- Date: Fri, 13 May 2022 12:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 14:06:02.055104
- Title: Blind Image Inpainting with Sparse Directional Filter Dictionaries for
Lightweight CNNs
- Title(参考訳): 軽量CNN用スパース方向フィルタ辞書によるブラインド画像の描画
- Authors: Jenny Schmalfuss and Erik Scheurer and Heng Zhao and Nikolaos
Karantzas and Andr\'es Bruhn and Demetrio Labate
- Abstract要約: 本稿では,要素を線形に重み付けしたフィルタ辞書を応用した畳み込みカーネルの学習手法を提案する。
この結果から,従来のCNNに比べて塗装品質が向上しただけでなく,軽量ネットワーク設計におけるネットワーク収束性も大幅に向上した。
- 参考スコア(独自算出の注目度): 4.020698631876855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blind inpainting algorithms based on deep learning architectures have shown a
remarkable performance in recent years, typically outperforming model-based
methods both in terms of image quality and run time. However, neural network
strategies typically lack a theoretical explanation, which contrasts with the
well-understood theory underlying model-based methods. In this work, we
leverage the advantages of both approaches by integrating theoretically founded
concepts from transform domain methods and sparse approximations into a
CNN-based approach for blind image inpainting. To this end, we present a novel
strategy to learn convolutional kernels that applies a specifically designed
filter dictionary whose elements are linearly combined with trainable weights.
Numerical experiments demonstrate the competitiveness of this approach. Our
results show not only an improved inpainting quality compared to conventional
CNNs but also significantly faster network convergence within a lightweight
network design.
- Abstract(参考訳): 近年、ディープラーニングアーキテクチャに基づくブラインド塗装アルゴリズムは、画像の品質と実行時間の両方において、モデルベースの手法よりも優れたパフォーマンスを示している。
しかしながら、ニューラルネットワーク戦略には理論的な説明が欠けているのが一般的であり、モデルに基づく手法の根底にあるよく理解された理論とは対照的である。
本研究では、変換領域法とスパース近似から理論的に確立された概念をCNNベースのブラインド画像インペイント手法に統合することにより、両方のアプローチの利点を利用する。
そこで本研究では,線形に要素を重み付け可能なフィルタ辞書を応用した,畳み込みカーネルの学習手法を提案する。
数値実験はこのアプローチの競争力を示す。
その結果,従来のcnnに比べて塗装品質が向上しただけでなく,軽量ネットワーク設計におけるネットワークコンバージェンスも大幅に向上した。
関連論文リスト
- Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Revisiting Sparse Convolutional Model for Visual Recognition [40.726494290922204]
本稿では,画像分類のためのスパース畳み込みモデルについて再検討する。
CIFAR-10, CIFAR-100, ImageNetデータセット上でも同様に強力な実験性能を示した。
論文 参考訳(メタデータ) (2022-10-24T04:29:21Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Low-light Image Enhancement by Retinex Based Algorithm Unrolling and
Adjustment [50.13230641857892]
本稿では,低照度画像強調(LIE)問題に対する新たなディープラーニングフレームワークを提案する。
提案フレームワークは,大域的明るさと局所的明るさ感度の両方を考慮したアルゴリズムアンロールと調整ネットワークに着想を得た分解ネットワークを含む。
一連の典型的なLIEデータセットの実験では,既存の手法と比較して,定量的かつ視覚的に,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-12T03:59:38Z) - Neural Knitworks: Patched Neural Implicit Representation Networks [1.0470286407954037]
画像合成を実現する自然画像の暗黙的表現学習のためのアーキテクチャであるKnitworkを提案する。
私たちの知る限りでは、画像のインペインティング、超解像化、デノイングといった合成作業に適した座標ベースのパッチの実装は、これが初めてである。
その結果, ピクセルではなくパッチを用いた自然な画像のモデリングにより, 忠実度が高い結果が得られた。
論文 参考訳(メタデータ) (2021-09-29T13:10:46Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Learning Local Complex Features using Randomized Neural Networks for
Texture Analysis [0.1474723404975345]
テクスチャ解析のための学習手法と複雑ネットワーク(CN)理論を組み合わせた新しい手法を提案する。
この方法はCNの表現能力を利用してテクスチャイメージを有向ネットワークとしてモデル化する。
このニューラルネットワークは、単一の隠蔽層を持ち、高速学習アルゴリズムを使用して、テクスチャのキャラクタリゼーションのためにローカルなCNパターンを学習することができる。
論文 参考訳(メタデータ) (2020-07-10T23:18:01Z) - Verification of Deep Convolutional Neural Networks Using ImageStars [10.44732293654293]
畳み込みニューラルネットワーク(CNN)は、多くの現実世界で最先端のアプリケーションを再定義している。
CNNは敵の攻撃に対して脆弱であり、入力のわずかな変更は出力の急激な変更につながる可能性がある。
本稿では,VGG16やVGG19などの実世界のCNNを,ImageNet上で高い精度で処理可能なセットベースフレームワークについて述べる。
論文 参考訳(メタデータ) (2020-04-12T00:37:21Z) - Cascaded Deep Video Deblurring Using Temporal Sharpness Prior [88.98348546566675]
提案アルゴリズムは主に,中間潜水フレームと潜水フレームの復元ステップから光フローを推定する。
まず、中間潜伏フレームから光フローを推定し、推定した光フローに基づいて潜伏フレームを復元する深部CNNモデルを開発する。
ビデオデブロアリングのドメイン知識を探索することで、深層CNNモデルをよりコンパクトで効率的なものにすることができることを示す。
論文 参考訳(メタデータ) (2020-04-06T09:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。