論文の概要: Test-Time Adaptation for Out-of-distributed Image Inpainting
- arxiv url: http://arxiv.org/abs/2102.01360v1
- Date: Tue, 2 Feb 2021 07:26:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:45:32.887527
- Title: Test-Time Adaptation for Out-of-distributed Image Inpainting
- Title(参考訳): 分散画像インパインティングのためのテスト時間適応
- Authors: Chajin Shin, Taeoh Kim, Sangjin Lee and Sangyoun Lee
- Abstract要約: 本稿では,AdaFill というテスト時間適応アルゴリズムを提案する。
分散されていないテスト画像が1つあるので、私たちのゴールは、事前訓練された塗装モデルよりも自然にホール領域を完成させることです。
実験の結果,AdaFillは様々なアウト・オブ・ディストリビューションテスト画像において,他のモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 6.303759813952482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based image inpainting algorithms have shown great performance
via powerful learned prior from the numerous external natural images. However,
they show unpleasant results on the test image whose distribution is far from
the that of training images because their models are biased toward the training
images. In this paper, we propose a simple image inpainting algorithm with
test-time adaptation named AdaFill. Given a single out-of-distributed test
image, our goal is to complete hole region more naturally than the pre-trained
inpainting models. To achieve this goal, we treat remained valid regions of the
test image as another training cues because natural images have strong internal
similarities. From this test-time adaptation, our network can exploit
externally learned image priors from the pre-trained features as well as the
internal prior of the test image explicitly. Experimental results show that
AdaFill outperforms other models on the various out-of-distribution test
images. Furthermore, the model named ZeroFill, that are not pre-trained also
sometimes outperforms the pre-trained models.
- Abstract(参考訳): ディープラーニングベースのイメージインペインティングアルゴリズムは、多数の外部自然画像から事前学習することで、優れたパフォーマンスを示している。
しかし, モデルがトレーニング画像に偏りがあるため, トレーニング画像の分布がトレーニング画像の分布からかけ離れているテスト画像に対して, 不愉快な結果を示す。
本稿では,AdaFillという実験時間適応を用いた簡易画像描画アルゴリズムを提案する。
分散した1つのテスト画像を考えると、私たちの目標は、事前訓練された塗装モデルよりも自然に穴領域を完成させることです。
この目的を達成するために,自然画像は内部的類似性が強いため,テスト画像の有効領域を別の訓練方法として扱う。
このテスト時間適応により、我々のネットワークは、事前訓練された特徴とテスト画像の内部的事前を明示的に利用することができる。
実験の結果,adafillは他のモデルよりも分散テスト画像の方が優れていた。
さらに、事前トレーニングされていないZeroFillというモデルも、事前トレーニングされたモデルを上回ることがあります。
関連論文リスト
- PrefPaint: Aligning Image Inpainting Diffusion Model with Human Preference [62.72779589895124]
画像インペイントのための拡散モデルと人間の審美基準との整合性を、強化学習フレームワークを用いて初めて試みる。
我々は、人間の好みを付加した約51,000枚の画像からなるデータセットで報酬モデルを訓練する。
画像拡張や3次元再構成などの下流タスクの塗装比較実験により, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-10-29T11:49:39Z) - Patch-Based Diffusion Models Beat Whole-Image Models for Mismatched Distribution Inverse Problems [12.5216516851131]
我々は、既知のトレーニング分布が最初に提供される場合の分布(OOD)問題について検討する。
パッチのみから画像分布を学習するパッチベースの拡散を事前に使用しています。
どちらの設定でも、パッチベースの手法は、画像全体のモデルより優れた高品質な画像再構成を得ることができる。
論文 参考訳(メタデータ) (2024-10-15T16:02:08Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Visual Prompting via Image Inpainting [104.98602202198668]
そこで本研究では,NLPにインスパイアされた新しいタスクの入力出力画像例と新しい入力画像の視覚的プロンプトについて検討する。
事前学習したモデルに視覚的プロンプトを適用し、様々なダウンストリームイメージ・ツー・イメージタスクで結果を示す。
論文 参考訳(メタデータ) (2022-09-01T17:59:33Z) - Enhanced Performance of Pre-Trained Networks by Matched Augmentation
Distributions [10.74023489125222]
列車-テストの分散シフトに対処するための簡単な解を提案する。
テスト画像に対して、複数のランダムな作物に対して結果を合成する。
これは列車の時間拡張と一致するだけでなく、入力画像の完全なカバレッジも提供する。
論文 参考訳(メタデータ) (2022-01-19T22:33:00Z) - Restore from Restored: Single-image Inpainting [9.699531255678856]
インペイントネットワークのための,新しい,効率的な自己教師型微調整アルゴリズムを提案する。
既存の自己相似パッチを用いて,事前学習した塗装ネットワークのパラメータを更新する。
公開されているベンチマークデータセット上で、最先端の塗装結果を得る。
論文 参考訳(メタデータ) (2021-10-25T11:38:51Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Restore from Restored: Single-image Inpainting [9.699531255678856]
本論文では,絵画ネットワークにおける自己監督型微調整アルゴリズムについて述べる。
入力画像内の既存の自己相似パッチを利用して,事前学習したネットワークのパラメータをアップグレードする。
公開ベンチマークデータセットで最先端のインペインティング結果を達成します。
論文 参考訳(メタデータ) (2021-02-16T10:59:28Z) - An Empirical Study of the Collapsing Problem in Semi-Supervised 2D Human
Pose Estimation [80.02124918255059]
半教師付き学習は、ラベルなし画像の探索によってモデルの精度を高めることを目的としている。
私たちは相互に教え合うために2つのネットワークを学びます。
各ネットワーク内の容易なイメージに関するより信頼性の高い予測は、他のネットワークに対応するハードイメージについて学ぶように教えるために使用される。
論文 参考訳(メタデータ) (2020-11-25T03:29:52Z) - Shape-Texture Debiased Neural Network Training [50.6178024087048]
畳み込みニューラルネットワークは、トレーニングデータセットによって、テクスチャまたは形状にバイアスされることが多い。
形状・テクスチャ・デバイアスド学習のためのアルゴリズムを開発した。
実験により,本手法は複数の画像認識ベンチマークにおけるモデル性能の向上に成功していることが示された。
論文 参考訳(メタデータ) (2020-10-12T19:16:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。