論文の概要: CompleteMe: Reference-based Human Image Completion
- arxiv url: http://arxiv.org/abs/2504.20042v1
- Date: Mon, 28 Apr 2025 17:59:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.554356
- Title: CompleteMe: Reference-based Human Image Completion
- Title(参考訳): CompleteMe: 参照ベースのヒューマンイメージコンプリート
- Authors: Yu-Ju Tsai, Brian Price, Qing Liu, Luis Figueroa, Daniil Pakhomov, Zhihong Ding, Scott Cohen, Ming-Hsuan Yang,
- Abstract要約: 我々は,新しい参照ベースヒューマン画像補完フレームワークであるCompleteMeを提案する。
CompleteMeは2つのU-Netアーキテクチャとリージョン中心の注意(RFA)ブロックを組み合わせている。
提案手法は既存の手法に比べて視覚的品質と意味的整合性に優れる。
- 参考スコア(独自算出の注目度): 52.93963237043788
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent methods for human image completion can reconstruct plausible body shapes but often fail to preserve unique details, such as specific clothing patterns or distinctive accessories, without explicit reference images. Even state-of-the-art reference-based inpainting approaches struggle to accurately capture and integrate fine-grained details from reference images. To address this limitation, we propose CompleteMe, a novel reference-based human image completion framework. CompleteMe employs a dual U-Net architecture combined with a Region-focused Attention (RFA) Block, which explicitly guides the model's attention toward relevant regions in reference images. This approach effectively captures fine details and ensures accurate semantic correspondence, significantly improving the fidelity and consistency of completed images. Additionally, we introduce a challenging benchmark specifically designed for evaluating reference-based human image completion tasks. Extensive experiments demonstrate that our proposed method achieves superior visual quality and semantic consistency compared to existing techniques. Project page: https://liagm.github.io/CompleteMe/
- Abstract(参考訳): 近年のヒト画像補完法では、可塑性体形を再構成するが、特定の衣服パターンや特徴的なアクセサリーなど、明示的な参照画像のない独特の細部を保存できないことが多い。
最先端の参照ベースの塗装アプローチでさえ、参照画像からのきめ細かい詳細を正確にキャプチャして統合するのに苦労している。
この制限に対処するために,新しい参照ベースヒューマン画像補完フレームワークであるCompleteMeを提案する。
CompleteMeは2つのU-Netアーキテクチャとリージョン中心の注意(RFA)ブロックを組み合わせることで、参照画像内の関連する領域に対するモデルの注意を明示的に導く。
このアプローチは、細部を効果的に捉え、正確な意味対応を保証し、完了した画像の忠実度と一貫性を著しく改善する。
また、参照に基づく人間の画像補完タスクの評価に特化して設計された、挑戦的なベンチマークを導入する。
実験の結果,提案手法は既存の手法に比べて視覚的品質と意味的一貫性に優れていた。
プロジェクトページ: https://liagm.github.io/CompleteMe/
関連論文リスト
- Recovering Partially Corrupted Major Objects through Tri-modality Based Image Completion [13.846868357952419]
拡散モデルは画像補完タスクに広く採用されている。
永続的な課題は、損傷した領域でオブジェクトが部分的にあいまいになったときに発生するが、残りの部分はバックグラウンドでまだ見える。
そこで我々は,新しい視覚支援によるテキストベースの指導を補足する,カジュアルスケッチを提案する。
このスケッチは重要な構造的手がかりを提供し、生成モデルは既存の背景とシームレスに統合されたオブジェクト構造を生成することができる。
論文 参考訳(メタデータ) (2025-03-10T08:34:31Z) - Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [65.7968515029306]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - CoSeR: Bridging Image and Language for Cognitive Super-Resolution [74.24752388179992]
本稿では,低解像度画像の理解能力を備えたSRモデルを実現するCoSeR(Cognitive Super-Resolution)フレームワークを提案する。
画像の外観と言語理解を組み合わせることで、認知的な埋め込みを生成する。
画像の忠実度をさらに向上させるため、「オール・イン・アテンション」と呼ばれる新しい条件注入方式を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:33:29Z) - Reference-Guided Texture and Structure Inference for Image Inpainting [25.775006005766222]
インペインティングのための10K対の入力画像と参照画像を含むベンチマークデータセットを構築した。
入力画像のテクスチャや構造的特徴を推測するために,エンコーダ・デコーダ構造を採用する。
さらに、参照画像の誘導により、入力画像のこれらの特徴を洗練するように、特徴アライメントモジュールを設計する。
論文 参考訳(メタデータ) (2022-07-29T06:26:03Z) - Learning Intrinsic Images for Clothing [10.21096394185778]
本稿では,衣料品画像の内在的画像分解に着目した。
より解釈可能なエッジ対応メトリックとアノテーションスキームは、テストセット用に設計されている。
提案モデルでは, 驚くほど細かな細部を保ちながら, テクスチャコピーのアーティファクトを著しく低減することを示した。
論文 参考訳(メタデータ) (2021-11-16T14:43:12Z) - Image Inpainting Guided by Coherence Priors of Semantics and Textures [62.92586889409379]
セマンティクスとテクスチャ間のコヒーレンスプリエンスを導入することにより、セマンティクス的な方法で別々のテクスチャを完成させることに集中できる。
また,全体構造と詳細なテクスチャの観点から,セマンティクスとインペインテッドイメージの一貫性を制約する2つのコヒーレンス損失を提案する。
論文 参考訳(メタデータ) (2020-12-15T02:59:37Z) - Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes [54.836331922449666]
本稿では,SGE-Net(Semantic Guidance and Evaluation Network)を提案する。
セマンティックセグメンテーションマップをインペイントの各尺度のガイダンスとして利用し、そこで位置依存推論を再評価する。
混合シーンの現実画像に対する実験により,提案手法が最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-15T17:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。