論文の概要: Self-supervised Fine-tuning for Correcting Super-Resolution
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/1912.12879v3
- Date: Mon, 15 Jun 2020 12:11:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:25:35.054642
- Title: Self-supervised Fine-tuning for Correcting Super-Resolution
Convolutional Neural Networks
- Title(参考訳): 自己制御による超解像畳み込みニューラルネットワークの補正
- Authors: Alice Lucas, Santiago Lopez-Tapia, Rafael Molina and Aggelos K.
Katsaggelos
- Abstract要約: 完全自己教師型微調整アプローチにより、SR結果のトレーニングや修正を回避できることが示される。
我々は,複数の画像とビデオのSR CNNに微調整アルゴリズムを適用し,準最適SR解に対して精度良く修正可能であることを示す。
- 参考スコア(独自算出の注目度): 17.922507191213494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Convolutional Neural Networks (CNNs) trained for image and video
super-resolution (SR) regularly achieve new state-of-the-art performance, they
also suffer from significant drawbacks. One of their limitations is their lack
of robustness to unseen image formation models during training. Other
limitations include the generation of artifacts and hallucinated content when
training Generative Adversarial Networks (GANs) for SR. While the Deep Learning
literature focuses on presenting new training schemes and settings to resolve
these various issues, we show that one can avoid training and correct for SR
results with a fully self-supervised fine-tuning approach. More specifically,
at test time, given an image and its known image formation model, we fine-tune
the parameters of the trained network and iteratively update them using a data
fidelity loss. We apply our fine-tuning algorithm on multiple image and video
SR CNNs and show that it can successfully correct for a sub-optimal SR solution
by entirely relying on internal learning at test time. We apply our method on
the problem of fine-tuning for unseen image formation models and on removal of
artifacts introduced by GANs.
- Abstract(参考訳): 画像とビデオの超解像(SR)のために訓練された畳み込みニューラルネットワーク(CNN)は、新しい最先端のパフォーマンスを定期的に達成するが、大きな欠点もある。
その制限の1つは、トレーニング中に見えない画像形成モデルに対する堅牢性の欠如である。
その他の制限としては、SRのためのジェネレーティブ・アドバイサル・ネットワーク(GAN)をトレーニングする際のアーティファクトの生成と幻覚コンテンツがある。
深層学習文献では,これらの課題を解決するための新しい学習方法や設定の提示に焦点が当てられているが,完全自己教師付き微調整アプローチを用いてsr結果の訓練や修正を回避できることが示されている。
具体的には、画像とその既知の画像形成モデルが与えられたテスト時に、トレーニングされたネットワークのパラメータを微調整し、データ忠実度損失を用いて反復的に更新する。
我々は、複数の画像とビデオのSR CNNに微調整アルゴリズムを適用し、テスト時に内部学習に完全に依存することで、準最適SRソリューションの正当性を示す。
本稿では,画像形成モデルの微調整問題と,GANが導入したアーティファクトの除去に応用する。
関連論文リスト
- Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Self-Denoising Neural Networks for Few Shot Learning [66.38505903102373]
既存のニューラルアーキテクチャの複数の段階でノイズを追加すると同時に、この付加ノイズに対して堅牢であるように学習する新しいトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代の畳み込みニューラルネットワークに容易に適用できます。
論文 参考訳(メタデータ) (2021-10-26T03:28:36Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Deep Unrolled Network for Video Super-Resolution [0.45880283710344055]
ビデオスーパーリゾリューション(VSR)は、対応する低リゾリューション(LR)バージョンから高リゾリューション(HR)画像のシーケンスを再構築することを目的としています。
伝統的に、VSR問題の解法は、画像形成や動きの仮定に関する事前知識を利用する反復アルゴリズムに基づいている。
ディープラーニング(DL)アルゴリズムは、大量の画像から空間パターンを効率的に学習できます。
未使用の最適化技術に基づく新しいVSRニューラルネットワークを提案し,その性能を議論する。
論文 参考訳(メタデータ) (2021-02-23T14:35:09Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Accelerated MRI with Un-trained Neural Networks [29.346778609548995]
トレーニングなしニューラルネットワークを用いた高速化MRIにおける再構成問題に対処する。
本稿では,Deep Decoderのバリエーションに基づいて,高度に最適化された未学習リカバリ手法を提案する。
トレーニングされていないアルゴリズムはベースライントレーニングされたニューラルネットワークと同じような性能を達成するが、最先端トレーニングされたネットワークはトレーニングされていないニューラルネットワークよりも優れる。
論文 参考訳(メタデータ) (2020-07-06T00:01:25Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z) - Adaptive Loss Function for Super Resolution Neural Networks Using Convex
Optimization Techniques [24.582559317893274]
Single Image Super-Resolution (SISR)タスクは、低解像度画像から対応する高解像度画像へのマッピングを学ぶことを指す。
CNNは、画像の高周波成分と低周波成分を学習することを奨励されている。
提案手法は, 画像の細部を復元し, 訓練過程において安定であることを示す。
論文 参考訳(メタデータ) (2020-01-21T20:31:10Z) - Fast Adaptation to Super-Resolution Networks via Meta-Learning [24.637337634643885]
本研究では、従来のSRネットワークのアーキテクチャを変更することなく、SISRの性能をさらに向上する機会を観察する。
トレーニング段階では,メタラーニングによりネットワークをトレーニングし,テスト時に任意の入力画像に迅速に適応させることができる。
提案手法は,様々なベンチマークSRデータセット上での従来のSRネットワークの性能を一貫して向上することを示す。
論文 参考訳(メタデータ) (2020-01-09T09:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。