論文の概要: Learning to Inpaint by Progressively Growing the Mask Regions
- arxiv url: http://arxiv.org/abs/2002.09280v1
- Date: Fri, 21 Feb 2020 13:33:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 01:38:50.146338
- Title: Learning to Inpaint by Progressively Growing the Mask Regions
- Title(参考訳): マスク領域の高度成長によるインペイントの学習
- Authors: Mohamed Abbas Hedjazi, Yakup Genc
- Abstract要約: 本研究は,画像インペイントの文脈において,新たなカリキュラムスタイルのトレーニングアプローチを導入する。
提案手法は, テスト時間中に任意の位置において, 任意の大きさと複数の穴が与えられることにより, マスク領域のサイズを段階的に増大させる。
MSCOCOとCelebAデータセットに対する我々のアプローチを検証する。
- 参考スコア(独自算出の注目度): 5.33024001730262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image inpainting is one of the most challenging tasks in computer vision.
Recently, generative-based image inpainting methods have been shown to produce
visually plausible images. However, they still have difficulties to generate
the correct structures and colors as the masked region grows large. This
drawback is due to the training stability issue of the generative models. This
work introduces a new curriculum-style training approach in the context of
image inpainting. The proposed method increases the masked region size
progressively in training time, during test time the user gives variable size
and multiple holes at arbitrary locations. Incorporating such an approach in
GANs may stabilize the training and provides better color consistencies and
captures object continuities. We validate our approach on the MSCOCO and CelebA
datasets. We report qualitative and quantitative comparisons of our training
approach in different models.
- Abstract(参考訳): イメージインペインティングは、コンピュータビジョンにおいて最も難しいタスクの1つです。
近年, 画像の描画手法が視覚的に可視な画像を生成することが示されている。
しかし、マスク領域が大きくなるにつれて、正しい構造や色を生成するのが困難である。
この欠点は生成モデルのトレーニング安定性の問題によるものである。
本研究は,イメージインパインティングの文脈において,新しいカリキュラムスタイルのトレーニング手法を提案する。
提案手法は,学習時間内にマスキング領域サイズを段階的に増加させ,テスト時間中に任意の場所に可変サイズと複数ホールを与える。
このようなアプローチをgansに組み込むことでトレーニングを安定させ、より優れた色構成を提供し、オブジェクト連続性を捉えることができる。
MSCOCOとCelebAデータセットに対する我々のアプローチを検証する。
異なるモデルにおけるトレーニングアプローチの質的,定量的比較を報告する。
関連論文リスト
- Modification Takes Courage: Seamless Image Stitching via Reference-Driven Inpainting [0.17975553762582286]
現在の画像縫合法は、不均一な色相や大きな視差のような挑戦的なシナリオにおいて顕著な縫い目を生み出す。
本稿では, 画像の融合と整形を基準ベースインペイントモデルとして再構成する参照駆動型インペイント・スティッチャ (RDIStitcher) を提案する。
本稿では,Multimodal Large Language Models (MLLM) を用いた画像品質評価手法を提案する。
論文 参考訳(メタデータ) (2024-11-15T16:05:01Z) - BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed
Dual-Branch Diffusion [61.90969199199739]
BrushNetは、ピクセルレベルのマスク付きイメージ機能を事前訓練されたDMに埋め込むために設計された、新しいプラグアンドプレイデュアルブランチモデルである。
BrushNetは、画像品質、マスク領域保存、テキストコヒーレンスを含む7つの主要な指標で、既存のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:59:31Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Supervised Deep Learning for Content-Aware Image Retargeting with
Fourier Convolutions [11.031841470875571]
画像は、コンテンツに注意して画像のサイズを変更することを目的としている。
ラベル付きデータセットは、イメージタスクでディープラーニングモデルのトレーニングには使用できない。
通常の畳み込みニューラルネットワークは、推論時間で異なるサイズの画像を生成することができない。
論文 参考訳(メタデータ) (2023-06-12T19:17:44Z) - GRIG: Few-Shot Generative Residual Image Inpainting [27.252855062283825]
そこで本研究では,高画質な残像塗装法を新たに提案する。
中心となる考え方は、特徴抽出のために畳み込みニューラルネットワーク(CNN)を組み込んだ反復的残留推論手法を提案することである。
また, 忠実なテクスチャと詳細な外観を創出するための, フォージェリーパッチ対逆訓練戦略を提案する。
論文 参考訳(メタデータ) (2023-04-24T12:19:06Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - Learning Prior Feature and Attention Enhanced Image Inpainting [63.21231753407192]
本稿では,事前学習に基づくMasked AutoEncoder(MAE)を塗装モデルに組み込む。
マスク付き領域とマスキングされていない領域間の長距離依存性をより学習させるために,MAE の注意点を用いた手法を提案する。
論文 参考訳(メタデータ) (2022-08-03T04:32:53Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。