論文の概要: Pixel-wise Dense Detector for Image Inpainting
- arxiv url: http://arxiv.org/abs/2011.02293v2
- Date: Tue, 17 Nov 2020 09:27:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 22:22:42.178504
- Title: Pixel-wise Dense Detector for Image Inpainting
- Title(参考訳): 画像塗布用画素線量検出器
- Authors: Ruisong Zhang, Weize Quan, Baoyuan Wu, Zhifeng Li, Dong-Ming Yan
- Abstract要約: 近年のGANベースの画像インパインティング手法では,画像の識別とスカラー出力に平均的手法が採用されている。
本稿では, 画像インパインティングのための新たな検出ベース生成フレームワークを提案し, 逆方向のプロセスにおいてmin-max戦略を採用する。
複数の公開データセットの実験は、提案したフレームワークの優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 34.721991959357425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent GAN-based image inpainting approaches adopt an average strategy to
discriminate the generated image and output a scalar, which inevitably lose the
position information of visual artifacts. Moreover, the adversarial loss and
reconstruction loss (e.g., l1 loss) are combined with tradeoff weights, which
are also difficult to tune. In this paper, we propose a novel detection-based
generative framework for image inpainting, which adopts the min-max strategy in
an adversarial process. The generator follows an encoder-decoder architecture
to fill the missing regions, and the detector using weakly supervised learning
localizes the position of artifacts in a pixel-wise manner. Such position
information makes the generator pay attention to artifacts and further enhance
them. More importantly, we explicitly insert the output of the detector into
the reconstruction loss with a weighting criterion, which balances the weight
of the adversarial loss and reconstruction loss automatically rather than
manual operation. Experiments on multiple public datasets show the superior
performance of the proposed framework. The source code is available at
https://github.com/Evergrow/GDN_Inpainting.
- Abstract(参考訳): 近年のGANベースの画像インパインティング手法では、生成した画像を識別し、スカラーを出力する平均戦略を採用している。
さらに、逆損失と再構成損失(例えば、l1損失)とトレードオフ重みを組み合わせることにより、チューニングが困難となる。
本稿では,画像インペイントのための新たな検出ベース生成フレームワークを提案する。
ジェネレータは、欠落した領域を埋めるエンコーダ・デコーダアーキテクチャに従い、弱い教師付き学習を用いた検出器は、画素単位でアーティファクトの位置をローカライズする。
このような位置情報により、ジェネレータはアーティファクトに注意を払い、さらに強化する。
より重要なことに,検出器の出力を重み付け基準で復元損失に明示的に挿入し,手作業ではなく,逆損失と復元損失の重みをバランスさせる。
複数の公開データセットの実験は、提案したフレームワークの優れたパフォーマンスを示している。
ソースコードはhttps://github.com/evergrow/gdn_inpaintingで入手できる。
関連論文リスト
- Panoramic Image Inpainting With Gated Convolution And Contextual
Reconstruction Loss [19.659176149635417]
フェースジェネレータ,キューブジェネレータ,サイドブランチ,および2つの識別器からなるパノラマ画像インペイントフレームワークを提案する。
提案手法は,PSNRおよびSSIMの観点から,SUN360ストリートビューデータセット上の最先端(SOTA)手法と比較する。
論文 参考訳(メタデータ) (2024-02-05T11:58:08Z) - Inpainting Normal Maps for Lightstage data [3.1002416427168304]
本研究では,GAN(Generative Adversarial Network)を用いた正規地図の塗装手法を提案する。
提案手法は,弓ネクタイ型ジェネレータネットワークと識別器ネットワークを併用し,トレーニングフェーズを交互に行うことによって,従来の一般的な画像塗装技術を拡張した。
提案手法は,高性能でリアルな塗布された正規地図を効果的に生成し,性能評価に適していることが示唆された。
論文 参考訳(メタデータ) (2024-01-16T03:59:07Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - RGI: robust GAN-inversion for mask-free image inpainting and
unsupervised pixel-wise anomaly detection [18.10039647382319]
本稿では,未知のテクストグロス汚損による画像復元を実現するために,ロバスト・ガン・インバージョン(RGI)法を提案する。
復元された画像と識別された領域のマスクは、地上の真実に収束することを示す。
提案したRGI/R-RGI法は,2つの重要な応用とSOTA(State-of-the-art)性能を統一する。
論文 参考訳(メタデータ) (2023-02-24T05:43:03Z) - Inpainting borehole images using Generative Adversarial Networks [0.0]
電線マイクロ抵抗画像ツールによるボアホール画像のギャップフィリングに対するGANに基づくアプローチを提案する。
提案手法では, 画像の欠落した領域を描画するために, ジェネレータ, グローバル判別器, ローカル判別器を利用する。
論文 参考訳(メタデータ) (2023-01-15T18:15:52Z) - RestoreDet: Degradation Equivariant Representation for Object Detection
in Low Resolution Images [81.91416537019835]
劣化した低解像度画像中のオブジェクトを検出するための新しいフレームワークであるRestoreDetを提案する。
CenterNetをベースとした本フレームワークは, 既存手法と比較して, 異種劣化状況に直面する場合に比べ, 優れた性能を達成している。
論文 参考訳(メタデータ) (2022-01-07T03:40:23Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。