論文の概要: Enhancing Photorealism Enhancement
- arxiv url: http://arxiv.org/abs/2105.04619v1
- Date: Mon, 10 May 2021 19:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 14:10:17.858129
- Title: Enhancing Photorealism Enhancement
- Title(参考訳): フォトリアリズムの強化
- Authors: Stephan R. Richter and Hassan Abu AlHaija and Vladlen Koltun
- Abstract要約: 本稿では,畳み込みネットワークを用いた合成画像のリアリズム向上手法を提案する。
一般的に使用されるデータセットのシーンレイアウトの分布を分析し、重要な方法で異なることを見つけます。
近年のイメージ・ツー・イメージ翻訳法と比較して,安定性とリアリズムの大幅な向上が報告されている。
- 参考スコア(独自算出の注目度): 83.88433283714461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an approach to enhancing the realism of synthetic images. The
images are enhanced by a convolutional network that leverages intermediate
representations produced by conventional rendering pipelines. The network is
trained via a novel adversarial objective, which provides strong supervision at
multiple perceptual levels. We analyze scene layout distributions in commonly
used datasets and find that they differ in important ways. We hypothesize that
this is one of the causes of strong artifacts that can be observed in the
results of many prior methods. To address this we propose a new strategy for
sampling image patches during training. We also introduce multiple
architectural improvements in the deep network modules used for photorealism
enhancement. We confirm the benefits of our contributions in controlled
experiments and report substantial gains in stability and realism in comparison
to recent image-to-image translation methods and a variety of other baselines.
- Abstract(参考訳): 本稿では,合成画像のリアリズムを高める手法を提案する。
画像は、従来のレンダリングパイプラインによって生成された中間表現を利用する畳み込みネットワークによって強化される。
ネットワークは、複数の知覚レベルで強力な監視を提供する、新しい敵の目標を通じて訓練される。
我々は,一般的なデータセットにおけるシーンレイアウト分布を分析し,それらが重要な方法で異なることを確認する。
我々は、これが多くの先行手法の結果で観察できる強い人工物の原因の1つであると仮定する。
そこで我々は,トレーニング中に画像パッチをサンプリングする新しい手法を提案する。
また,フォトリアリズム拡張に使用されるディープネットワークモジュールにおいて,複数のアーキテクチャ改善も導入する。
制御実験における我々の貢献の利点を確認し,最近の画像から画像への翻訳法や様々なベースラインと比較して,安定性とリアリズムの実質的な向上を報告した。
関連論文リスト
- Diff-Mosaic: Augmenting Realistic Representations in Infrared Small Target Detection via Diffusion Prior [63.64088590653005]
本稿では拡散モデルに基づくデータ拡張手法であるDiff-Mosaicを提案する。
我々は,モザイク画像を高度に調整し,リアルな画像を生成するPixel-Priorという拡張ネットワークを導入する。
第2段階では,Diff-Prior という画像強調戦略を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:23:05Z) - Foveation in the Era of Deep Learning [6.602118206533142]
本稿では,グラフ畳み込みネットワークを利用してフェーブ化された画像を処理する,エンドツーエンドで微分可能なアクティブ・ビジョン・アーキテクチャを提案する。
我々のモデルは、分類に関連する画像の領域に反復的に出席することを学ぶ。
我々のモデルは最先端のCNNと、同等のパラメータと与えられたピクセルや予算の視覚アーキテクチャより優れています。
論文 参考訳(メタデータ) (2023-12-03T16:48:09Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - Diamond in the rough: Improving image realism by traversing the GAN
latent space [0.0]
改良されたフォトリアリズムと整合する潜在空間の方向を求める教師なし手法を提案する。
提案手法は,生成画像の忠実度を高めつつ,ネットワークを不変にしておく。
私たちは、イメージ空間の最小の変化をもたらす潜在空間の方向を見つけるために、単純なジェネレータインバージョンを使用します。
論文 参考訳(メタデータ) (2021-04-12T14:45:29Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。