論文の概要: Image Super-Resolution with Deep Dictionary
- arxiv url: http://arxiv.org/abs/2207.09228v1
- Date: Tue, 19 Jul 2022 12:31:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 14:28:25.324942
- Title: Image Super-Resolution with Deep Dictionary
- Title(参考訳): ディープディクショナリを用いた画像超解像
- Authors: Shunta Maeda
- Abstract要約: 深部辞書を用いたエンドツーエンド超解像ネットワーク(SRDD)を提案する。
本研究では,高解像度辞書の明示的な学習により,ドメイン外のテスト画像に対してネットワークをより堅牢にすることができることを示す。
- 参考スコア(独自算出の注目度): 12.18340575383456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the first success of Dong et al., the deep-learning-based approach has
become dominant in the field of single-image super-resolution. This replaces
all the handcrafted image processing steps of traditional sparse-coding-based
methods with a deep neural network. In contrast to sparse-coding-based methods,
which explicitly create high/low-resolution dictionaries, the dictionaries in
deep-learning-based methods are implicitly acquired as a nonlinear combination
of multiple convolutions. One disadvantage of deep-learning-based methods is
that their performance is degraded for images created differently from the
training dataset (out-of-domain images). We propose an end-to-end
super-resolution network with a deep dictionary (SRDD), where a high-resolution
dictionary is explicitly learned without sacrificing the advantages of deep
learning. Extensive experiments show that explicit learning of high-resolution
dictionary makes the network more robust for out-of-domain test images while
maintaining the performance of the in-domain test images.
- Abstract(参考訳): Dongらの最初の成功以来、深層学習に基づくアプローチはシングルイメージ超解像の分野で支配的になっている。
これは、従来のスパースコーディングベースの手法のすべての手作り画像処理ステップを、ディープニューラルネットワークに置き換えるものだ。
高分解能と低分解能の辞書を明示的に作成するスパースコーディングベースの方法とは対照的に、ディープラーニングに基づく方法の辞書は、複数の畳み込みの非線形結合として暗黙的に取得される。
ディープラーニングベースの方法の欠点のひとつは、トレーニングデータセット(ドメイン外イメージ)とは異なるイメージに対して、パフォーマンスが低下する点だ。
本稿では,ディープラーニングの利点を犠牲にすることなく,高分解能辞書を明示的に学習するディープディクショナリ(srdd)を用いた,エンドツーエンドのスーパーレゾリューションネットワークを提案する。
広範な実験により、高解像度辞書の明示的な学習により、ネットワークはドメイン内テスト画像のパフォーマンスを維持しつつ、ドメイン外テスト画像に対してより堅牢になることが示された。
関連論文リスト
- Exploring Deep Learning Image Super-Resolution for Iris Recognition [50.43429968821899]
重畳自動エンコーダ(SAE)と畳み込みニューラルネットワーク(CNN)の2つの深層学習単一画像超解法手法を提案する。
精度評価と認識実験により,1.872個の近赤外虹彩画像のデータベースを用いて評価を行い,比較アルゴリズムよりも深層学習の方が優れていることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:57:48Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Towards Unpaired Depth Enhancement and Super-Resolution in the Wild [121.96527719530305]
最先端のデータ駆動による深度マップの超解像法は、同じシーンの低解像度と高解像度の深度マップの登録ペアに依存している。
未経験データからの学習に基づく深度マップの強化について考察する。
論文 参考訳(メタデータ) (2021-05-25T16:19:16Z) - Deep Iterative Residual Convolutional Network for Single Image
Super-Resolution [31.934084942626257]
我々は、ISRResCNet(Deep Iterative Super-Resolution Residual Convolutional Network)を提案する。
残差学習アプローチを用いて、深層ネットワークを反復的に訓練することにより、強力な画像正規化と大規模最適化手法を活用する。
トレーニング可能なパラメータがいくつかある本手法は,最先端の手法と比較して,異なるスケーリング要因に対する結果を改善する。
論文 参考訳(メタデータ) (2020-09-07T12:54:14Z) - A deep primal-dual proximal network for image restoration [8.797434238081372]
我々は、プリミティブ・デュアル・イテレーションから構築されたディープPDNetというディープネットワークを設計し、前もって分析を行い、標準的なペナル化可能性の最小化を図った。
フルラーニング」と「パートラーニング」の2つの異なる学習戦略が提案され、第1は最も効率的な数値である。
以上の結果から,提案したDeepPDNetは,MNISTと,より複雑なBSD68,BSD100,SET14データセットにおいて,画像復元と単一画像超解像処理に優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-02T08:29:52Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z) - BP-DIP: A Backprojection based Deep Image Prior [49.375539602228415]
画像復元手法として, (i)Deep Image Prior (DIP) と (ii) バックプロジェクション (BP) の2つの手法を提案する。
提案手法はBP-DIP(BP-DIP)と呼ばれ,高いPSNR値とより優れた推論実行時間を持つ通常のDIPよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-11T17:09:12Z) - Multimodal Deep Unfolding for Guided Image Super-Resolution [23.48305854574444]
ディープラーニング手法は、低解像度の入力から高解像度の出力へのエンドツーエンドのマッピングを学習するために、トレーニングデータに依存する。
本稿では,スパース事前を組み込んだマルチモーダル深層学習設計を提案し,他の画像モダリティからの情報をネットワークアーキテクチャに効果的に統合する。
提案手法は,サイド情報を用いた畳み込みスパース符号化の反復的アルゴリズムに類似した,新しい展開演算子に依存している。
論文 参考訳(メタデータ) (2020-01-21T14:41:53Z) - Deep Image Feature Learning with Fuzzy Rules [25.4399762282053]
本稿では、より解釈可能でスケーラブルな特徴学習手法、すなわち、ファジィルール付き深層画像特徴学習(DIFL-FR)を提案する。
本手法は,ファジィルールに基づいて階層的に画像特徴を段階的に学習するので,生成したルールにより特徴学習プロセスをよりよく説明できる。
また、教師なし学習の設定下にあり、教師なし学習や半教師なし学習の場面に容易に拡張することができる。
論文 参考訳(メタデータ) (2019-05-25T11:33:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。