論文の概要: CSF-Net: Context-Semantic Fusion Network for Large Mask Inpainting
- arxiv url: http://arxiv.org/abs/2511.07987v1
- Date: Wed, 12 Nov 2025 01:32:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.582063
- Title: CSF-Net: Context-Semantic Fusion Network for Large Mask Inpainting
- Title(参考訳): CSF-Net:大規模マスク塗装のためのコンテキスト意味融合ネットワーク
- Authors: Chae-Yeon Heo, Yeong-Jun Cho,
- Abstract要約: 本稿では,大画面画像のインペイント問題に対処するための意味誘導型フレームワークを提案する。
本稿では,変換器ベースの融合フレームワークであるContext-Semantic Fusion Network (CSF-Net)を紹介する。
実験により、CSF-Netは視覚リアリズムとセマンティックアライメントを高めながら、オブジェクト幻覚を効果的に減少させることが示された。
- 参考スコア(独自算出の注目度): 1.7188280334580195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a semantic-guided framework to address the challenging problem of large-mask image inpainting, where essential visual content is missing and contextual cues are limited. To compensate for the limited context, we leverage a pretrained Amodal Completion (AC) model to generate structure-aware candidates that serve as semantic priors for the missing regions. We introduce Context-Semantic Fusion Network (CSF-Net), a transformer-based fusion framework that fuses these candidates with contextual features to produce a semantic guidance image for image inpainting. This guidance improves inpainting quality by promoting structural accuracy and semantic consistency. CSF-Net can be seamlessly integrated into existing inpainting models without architectural changes and consistently enhances performance across diverse masking conditions. Extensive experiments on the Places365 and COCOA datasets demonstrate that CSF-Net effectively reduces object hallucination while enhancing visual realism and semantic alignment. The code for CSF-Net is available at https://github.com/chaeyeonheo/CSF-Net.
- Abstract(参考訳): 本稿では,重要な視覚的内容が欠落し,文脈的手がかりが限られている大規模マスク画像の塗り絵の難しさに対処する意味誘導型フレームワークを提案する。
制限されたコンテキストを補うために、事前訓練されたアモーダル・コンプリート(AC)モデルを用いて、欠落した領域のセマンティック・プライオリティとして機能する構造認識候補を生成する。
コンテクスト・セマンティック・フュージョン・ネットワーク (CSF-Net) は変換器をベースとしたフュージョン・フレームワークである。
このガイダンスは、構造的精度と意味的整合性を促進することにより、塗装品質を向上させる。
CSF-Netは、アーキテクチャの変更なしに既存の塗装モデルにシームレスに統合することができ、多様なマスキング条件でパフォーマンスを継続的に向上することができる。
Places365とCOCOAデータセットの大規模な実験は、CSF-Netが視覚リアリズムとセマンティックアライメントを強化しながら、オブジェクト幻覚を効果的に減少させることを示した。
CSF-Netのコードはhttps://github.com/chaeyeonheo/CSF-Netで公開されている。
関連論文リスト
- MTADiffusion: Mask Text Alignment Diffusion Model for Object Inpainting [24.950822394526554]
MTADiffusionは,物体塗布のためのマスクテキスト配向拡散モデルである。
MTAPipelineをベースとして,500万の画像と2500万のマスクテキストペアからなる新しいMTAデータセットを構築した。
スタイル整合性を促進するために,事前学習したVGGネットワークとGram行列を用いた新しいスタイル整合性損失を提案する。
論文 参考訳(メタデータ) (2025-06-30T03:06:54Z) - Improving Text-guided Object Inpainting with Semantic Pre-inpainting [95.17396565347936]
我々は,典型的な単一ステージオブジェクトを2つのカスケードプロセス – セマンティックプリペイントと高磁場オブジェクト生成 – に分解する。
これを実現するために,トランスフォーマーをベースとしたセマンティックインパインとオブジェクトインパインティング拡散モデルをカスケードし,新しいCAscaded Transformer-Diffusionフレームワークを実現する。
論文 参考訳(メタデータ) (2024-09-12T17:55:37Z) - Coherent and Multi-modality Image Inpainting via Latent Space Optimization [61.99406669027195]
PILOT(intextbfPainting vtextbfIa textbfOptextbfTimization)は、新しいテキストセマンティック中央化とテキストセマンティック保存損失に基づく最適化手法である。
本手法は,背景とのコヒーレンスを維持しつつ,ユーザが提供するプロンプトに対して高い忠実度を示す塗装領域を生成できる潜時空間を探索する。
論文 参考訳(メタデータ) (2024-07-10T19:58:04Z) - RefFusion: Reference Adapted Diffusion Models for 3D Scene Inpainting [63.567363455092234]
RefFusionは,画像インペイント拡散モデルのマルチスケールパーソナライズに基づく,新しい3Dインペイント手法である。
我々のフレームワークは、制御性を維持しながら、オブジェクト除去の最先端の成果を達成する。
論文 参考訳(メタデータ) (2024-04-16T17:50:02Z) - Towards Enhanced Image Inpainting: Mitigating Unwanted Object Insertion and Preserving Color Consistency [78.0488707697235]
ASUKA(Aigned Stable Inpainting with UnKnown Areas)と呼ばれるポストプロセッシングアプローチは、インパインティングモデルを改善する。
Masked Auto-Encoder (MAE) は、オブジェクト幻覚を緩和する。
ローカルタスクとしてラテント・ツー・イメージ・デコーディングを扱う特殊なVAEデコーダ。
論文 参考訳(メタデータ) (2023-12-08T05:08:06Z) - Improving Face Recognition from Caption Supervision with Multi-Granular
Contextual Feature Aggregation [0.0]
我々は,COTS(Commercial-off-the-Shelf)顔認識システムの性能向上のための新しいフレームワークとして,キャプション誘導顔認識(CGFR)を導入した。
本稿では,2つの顔認識モデル(ArcFaceとAdaFace)にCGFRフレームワークを実装し,その性能をマルチモーダルCelebA-HQデータセットで評価した。
論文 参考訳(メタデータ) (2023-08-13T23:52:15Z) - MixMask: Revisiting Masking Strategy for Siamese ConvNets [23.946791390657875]
この研究は、textbfMixMaskと呼ばれる新しいフィリングベースのマスキング手法を導入している。
提案手法は,消去された領域を別の画像からのコンテンツに置き換えることにより,従来のマスキング手法で見られる情報の枯渇を効果的に解消する。
我々は,線形探索,半教師付きおよび教師付きファインタニング,オブジェクト検出,セグメンテーションなどの領域におけるフレームワークの性能向上を実証的に検証した。
論文 参考訳(メタデータ) (2022-10-20T17:54:03Z) - High-Fidelity Image Inpainting with GAN Inversion [23.49170140410603]
本稿では,InvertFillと呼ばれる画像インペイントのための新しいGANインバージョンモデルを提案する。
エンコーダ内では、事前変調ネットワークがマルチスケール構造を利用して、より差別的なセマンティクスをスタイルベクトルにエンコードする。
忠実でフォトリアリスティックなイメージを再構築するために、シンプルだが効果的なSoft-update Mean Latentモジュールは、大規模な腐敗のために高忠実なテクスチャを合成する、より多様なドメイン内パターンをキャプチャするように設計されている。
論文 参考訳(メタデータ) (2022-08-25T03:39:24Z) - CTCNet: A CNN-Transformer Cooperation Network for Face Image
Super-Resolution [64.06360660979138]
超解像課題に対する効率的なCNN-Transformer Cooperation Network (CTCNet)を提案する。
本稿ではまず,FSAUとTransformerブロックから構成されるLGCM(Local-Global Feature Cooperation Module)を考案した。
次に、エンコードされた機能を強化するために、効率的な機能リファインメントモジュール(FRM)を設計する。
論文 参考訳(メタデータ) (2022-04-19T06:38:29Z) - Context-Aware Image Inpainting with Learned Semantic Priors [100.99543516733341]
欠落した内容を推定するために意味的に意味のある前文タスクを導入する。
本研究では,グローバルなセマンティクスと局所的な特徴を適応的に統合した文脈認識型画像インパインティングモデルを提案する。
論文 参考訳(メタデータ) (2021-06-14T08:09:43Z) - Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes [54.836331922449666]
本稿では,SGE-Net(Semantic Guidance and Evaluation Network)を提案する。
セマンティックセグメンテーションマップをインペイントの各尺度のガイダンスとして利用し、そこで位置依存推論を再評価する。
混合シーンの現実画像に対する実験により,提案手法が最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-15T17:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。