論文の概要: DILIE: Deep Internal Learning for Image Enhancement
- arxiv url: http://arxiv.org/abs/2012.06469v1
- Date: Fri, 11 Dec 2020 16:39:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 06:00:00.281156
- Title: DILIE: Deep Internal Learning for Image Enhancement
- Title(参考訳): dilie: 画像エンハンスメントのための深い内部学習
- Authors: Indra Deep Mastan and Shanmuganathan Raman
- Abstract要約: 近年の画像強調手法では, スタイル転送と画像復元が問題となっている。
我々は,深層内部学習フレームワークで画像強調を行う。
画像強調とノイズ強調の両方の結果を示す。
- 参考スコア(独自算出の注目度): 31.75300124593133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the generic deep image enhancement problem where an input image
is transformed into a perceptually better-looking image. Recent methods for
image enhancement consider the problem by performing style transfer and image
restoration. The methods mostly fall into two categories: training data-based
and training data-independent (deep internal learning methods). We perform
image enhancement in the deep internal learning framework. Our Deep Internal
Learning for Image Enhancement framework enhances content features and style
features and uses contextual content loss for preserving image context in the
enhanced image. We show results on both hazy and noisy image enhancement. To
validate the results, we use structure similarity and perceptual error, which
is efficient in measuring the unrealistic deformation present in the images. We
show that the proposed framework outperforms the relevant state-of-the-art
works for image enhancement.
- Abstract(参考訳): 入力画像が知覚的に見栄えのよい画像に変換される一般的な深部画像強調問題を考える。
近年の画像強調手法では, スタイル転送と画像復元が問題となっている。
トレーニングデータベースとトレーニングデータ非依存(深い内部学習方法)の2つのカテゴリに大別される。
我々は,深層内部学習フレームワークで画像強調を行う。
我々のDeep Internal Learning for Image Enhancement frameworkは、コンテンツ機能とスタイル機能を強化し、強調画像中の画像コンテキストを保存するためにコンテキストコンテンツ損失を使用する。
画像強調とノイズ強調の両方の結果を示す。
その結果,画像中の非現実的変形を測定するのに効率的である構造的類似性と知覚的誤りを用いた。
提案フレームワークは,画像エンハンスメントのための関連する最先端の作業よりも優れていることを示す。
関連論文リスト
- ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Cross-Image Attention for Zero-Shot Appearance Transfer [68.43651329067393]
画像間の意味的対応を暗黙的に確立するクロスイメージアテンション機構を導入する。
ノイズの多い潜在コードを操作する3つのメカニズムと、デノナイジングプロセスを通してモデルの内部表現を利用する。
実験により,本手法は多種多様な対象カテゴリに対して有効であり,形状,大きさ,視点の変動に頑健であることが示された。
論文 参考訳(メタデータ) (2023-11-06T18:33:24Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Wide & deep learning for spatial & intensity adaptive image restoration [16.340992967330603]
本稿では,広義の多フレーム画像復元ネットワーク(DparNet)を提案する。
劣化前のパラメータ行列は、劣化した画像から直接学習される。
DparNetの広範かつ深いアーキテクチャにより、学習したパラメータは最終的な復元結果を直接修正できる。
論文 参考訳(メタデータ) (2023-05-30T03:24:09Z) - Generative Image Inpainting with Segmentation Confusion Adversarial
Training and Contrastive Learning [14.358417509144523]
本稿では,画像インパインティングのための新しい対角的学習フレームワークについて述べる。
SCATは、画素レベルの局所的なトレーニング信号を提供する、インペイントジェネレータとセグメンテーションネットワークの間の対角ゲームを行う。
2つのベンチマークデータセットに対して広範な実験を行い、質的かつ定量的にモデルの有効性と優越性を実証した。
論文 参考訳(メタデータ) (2023-03-23T09:34:17Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - ExCon: Explanation-driven Supervised Contrastive Learning for Image
Classification [12.109442912963969]
本稿では,サリエンシに基づく説明手法を活用して,コンテント保存型マスク強化によるコントラスト学習を提案する。
提案手法は, 近距離画像の埋め込みに類似した内容と説明を与えるという2つの目的を, 批判的に果たすものである。
ExConは、分類、説明品質、対向ロバスト性、および分布シフトの文脈におけるモデルの確率的予測のキャリブレーションの観点から、バニラ指導によるコントラスト学習より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:15:26Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Deep Photo Cropper and Enhancer [65.11910918427296]
画像に埋め込まれた画像を収穫する新しいタイプの画像強調問題を提案する。
提案手法をディープ・フォト・クリーパーとディープ・イメージ・エンハンサーの2つのディープ・ネットワークに分割した。
フォトクロッパーネットワークでは,埋め込み画像の抽出に空間変換器を用いる。
フォトエンハンサーでは、埋め込み画像中の画素数を増やすために超解像を用いる。
論文 参考訳(メタデータ) (2020-08-03T03:50:20Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。