論文の概要: Enhance Images as You Like with Unpaired Learning
- arxiv url: http://arxiv.org/abs/2110.01161v1
- Date: Mon, 4 Oct 2021 03:00:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:17:58.448030
- Title: Enhance Images as You Like with Unpaired Learning
- Title(参考訳): 非ペア学習で好きなように画像を強化する
- Authors: Xiaopeng Sun, Muxingzi Li, Tianyu He, Lubin Fan
- Abstract要約: 本稿では,低照度から高照度の画像空間における一対多の関係を学習するために,軽量な一経路条件生成対向ネットワーク(cGAN)を提案する。
我々のネットワークは、様々な参照画像上に設定された所定の入力条件から、拡張された画像の集合を生成することを学習する。
我々のモデルは、ノイズとクリーンなデータセットの完全な教師付き手法と同等に競合する視覚的および定量的な結果を得る。
- 参考スコア(独自算出の注目度): 8.104571453311442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement exhibits an ill-posed nature, as a given image
may have many enhanced versions, yet recent studies focus on building a
deterministic mapping from input to an enhanced version. In contrast, we
propose a lightweight one-path conditional generative adversarial network
(cGAN) to learn a one-to-many relation from low-light to normal-light image
space, given only sets of low- and normal-light training images without any
correspondence. By formulating this ill-posed problem as a modulation code
learning task, our network learns to generate a collection of enhanced images
from a given input conditioned on various reference images. Therefore our
inference model easily adapts to various user preferences, provided with a few
favorable photos from each user. Our model achieves competitive visual and
quantitative results on par with fully supervised methods on both noisy and
clean datasets, while being 6 to 10 times lighter than state-of-the-art
generative adversarial networks (GANs) approaches.
- Abstract(参考訳): 低照度画像強調は、与えられた画像が多くの拡張バージョンを持つため、不適切な性質を示すが、最近の研究では、入力から拡張バージョンへの決定論的マッピングの構築に焦点を当てている。
これとは対照的に,低照度から通常照度までの1対多の関係を,対応のない低照度および通常照度トレーニング画像のみに限定して学習するための,軽量な1パス条件生成対向ネットワーク(cGAN)を提案する。
この不適切な問題を変調符号学習タスクとして定式化することにより、ネットワークは、様々な参照画像に対して与えられた入力条件から拡張画像の集合を生成する。
したがって,各ユーザの好適な写真をいくつか提供して,様々なユーザの好みに容易に適応できる推定モデルを構築した。
提案手法は,従来のGANの6倍から10倍の精度で,ノイズやクリーンなデータセットの完全教師付き手法と同等に競合する視覚的,定量的な結果が得られる。
関連論文リスト
- Bracketing is All You Need: Unifying Image Restoration and Enhancement
Tasks with Multi-Exposure Images [54.52482239188794]
本稿では,ブラケット写真を利用して修復作業と強化作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Shed Various Lights on a Low-Light Image: Multi-Level Enhancement Guided
by Arbitrary References [17.59529931863947]
本稿では,マルチレベル低光度画像強調のためのニューラルネットワークを提案する。
スタイル転送にインスパイアされたこの手法は,潜在空間内の2つの低結合機能コンポーネントにイメージを分解する。
このようにして、ネットワークは一連の画像対からシーン不変および明るさ固有情報を抽出することを学ぶ。
論文 参考訳(メタデータ) (2021-01-04T07:38:51Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Training End-to-end Single Image Generators without GANs [27.393821783237186]
AugurOneは、単一画像生成モデルをトレーニングするための新しいアプローチである。
提案手法は,入力画像の非アフィン強化を用いて,アップスケーリングニューラルネットワークを訓練する。
制御画像合成が可能なコンパクト潜在空間を共同で学習する。
論文 参考訳(メタデータ) (2020-04-07T17:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。