論文の概要: GLocal: Global Graph Reasoning and Local Structure Transfer for Person
Image Generation
- arxiv url: http://arxiv.org/abs/2112.00263v1
- Date: Wed, 1 Dec 2021 03:54:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 14:37:36.938578
- Title: GLocal: Global Graph Reasoning and Local Structure Transfer for Person
Image Generation
- Title(参考訳): GLocal:人物画像生成のためのグローバルグラフ推論と局所構造伝達
- Authors: Liyuan Ma, Kejie Huang, Dongxu Wei, Haibin Shen
- Abstract要約: 我々は、人像生成、すなわち、腐敗したテクスチャや異なるポーズなど、様々な条件下で人像を生成することに焦点を当てる。
本稿では,異なる意味領域間のスタイル相互相関を世界規模で推論することで,咬合認識のテクスチャ推定を改善するためのGLocalフレームワークを提案する。
局所構造情報保存のために,さらにソース画像の局所構造を抽出し,局所構造転送により生成画像に復元する。
- 参考スコア(独自算出の注目度): 2.580765958706854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we focus on person image generation, namely, generating person
image under various conditions, e.g., corrupted texture or different pose. To
address texture occlusion and large pose misalignment in this task, previous
works just use the corresponding region's style to infer the occluded area and
rely on point-wise alignment to reorganize the context texture information,
lacking the ability to globally correlate the region-wise style codes and
preserve the local structure of the source. To tackle these problems, we
present a GLocal framework to improve the occlusion-aware texture estimation by
globally reasoning the style inter-correlations among different semantic
regions, which can also be employed to recover the corrupted images in texture
inpainting. For local structural information preservation, we further extract
the local structure of the source image and regain it in the generated image
via local structure transfer. We benchmark our method to fully characterize its
performance on DeepFashion dataset and present extensive ablation studies that
highlight the novelty of our method.
- Abstract(参考訳): 本稿では,人物画像生成,すなわち,質感の劣化やポーズの相違など,様々な条件下での人物画像の生成に焦点をあてる。
この課題において、テクスチャの排除と大きなポーズのミスアライメントに対処するため、従来の作業では、対象領域を推測するために対応する領域のスタイルを使用しており、コンテキストテクスチャ情報を再構成するためにポイントワイドアライメントに依存しており、領域ワイドなコードとソースのローカル構造をグローバルに相関する能力が欠如している。
これらの問題に対処するために,GLocal フレームワークを提案し,各意味領域間のスタイル相互相関を世界規模で推論することで,テクスチャ塗布時の劣化画像の復元を行う。
局所的な構造情報保存のために,さらにソース画像の局所構造を抽出し,局所構造転送により生成画像に復元する。
提案手法は,DeepFashionデータセットの性能をフルに評価するためのベンチマークであり,本手法の新規性を強調する広範囲なアブレーション研究を示す。
関連論文リスト
- GeoCLIP: Clip-Inspired Alignment between Locations and Images for
Effective Worldwide Geo-localization [61.10806364001535]
世界規模のジオローカライゼーションは、地球上のどこでも撮影された画像の正確な位置を特定することを目的としている。
既存のアプローチは、地球を離散的な地理的細胞に分割し、問題を分類タスクに変換する。
画像と対応するGPS位置のアライメントを強制する新しいCLIPにインスパイアされた画像-GPS検索手法であるGeoCLIPを提案する。
論文 参考訳(メタデータ) (2023-09-27T20:54:56Z) - Learning with Multi-modal Gradient Attention for Explainable Composed
Image Retrieval [15.24270990274781]
そこで本研究では,各検索ステップで修正される関心領域に,モデルに明示的に集中するよう強制する,グラディショナル・アテンションに基づく新たな学習目標を提案する。
我々は,MMGradをエンド・ツー・エンドのモデルトレーニング戦略に組み込む方法を示し,これらのMMGradアテンションマップに修正文に対応する適切な局所領域の強調を強制する新たな学習目標を示す。
論文 参考訳(メタデータ) (2023-08-31T11:46:27Z) - Semantic Image Translation for Repairing the Texture Defects of Building
Models [16.764719266178655]
本稿では, ファサードテクスチャ画像の合成手法を提案する。
提案手法は,既存のテクスチャを欠いたファッケードに対して,テクスチャイメージを特定のスタイルで合成することも可能である。
論文 参考訳(メタデータ) (2023-03-30T14:38:53Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Image Harmonization by Matching Regional References [10.249228010611617]
最近の画像調和法は, 一般的にグローバルな背景の出現パターンを要約し, 位置差のないグローバルな前景に適用する。
実際の画像では、異なる領域の外観(照度、色温度、彩度、色調、テクスチャなど)が著しく変化する。
外観を世界中に伝達する従来手法は最適ではない。
論文 参考訳(メタデータ) (2022-04-10T16:23:06Z) - Context-Aware Image Inpainting with Learned Semantic Priors [100.99543516733341]
欠落した内容を推定するために意味的に意味のある前文タスクを導入する。
本研究では,グローバルなセマンティクスと局所的な特徴を適応的に統合した文脈認識型画像インパインティングモデルを提案する。
論文 参考訳(メタデータ) (2021-06-14T08:09:43Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes [54.836331922449666]
本稿では,SGE-Net(Semantic Guidance and Evaluation Network)を提案する。
セマンティックセグメンテーションマップをインペイントの各尺度のガイダンスとして利用し、そこで位置依存推論を再評価する。
混合シーンの現実画像に対する実験により,提案手法が最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-15T17:49:20Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。