論文の概要: Foreground Focus: Enhancing Coherence and Fidelity in Camouflaged Image Generation
- arxiv url: http://arxiv.org/abs/2504.02180v1
- Date: Wed, 02 Apr 2025 23:51:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:56:40.945262
- Title: Foreground Focus: Enhancing Coherence and Fidelity in Camouflaged Image Generation
- Title(参考訳): 前景焦点:カモフラージュ画像生成におけるコヒーレンスと忠実さの強化
- Authors: Pei-Chi Chen, Yi Yao, Chan-Feng Hsu, HongXia Xie, Hung-Jen Chen, Hong-Han Shuai, Wen-Huang Cheng,
- Abstract要約: 本稿では,カモフラージュ画像を生成するために,フォアグラウンド対応カモフラージュ画像生成(FACIG)モデルを提案する。
具体的には、フォアグラウンド機能統合モジュール(FAFIM)を導入し、フォアグラウンド機能と背景知識の統合を強化する。
様々なデータセットを用いた実験により,提案手法は画像の画質と前景の忠実度において,従来の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 28.86420429221175
- License:
- Abstract: Camouflaged image generation is emerging as a solution to data scarcity in camouflaged vision perception, offering a cost-effective alternative to data collection and labeling. Recently, the state-of-the-art approach successfully generates camouflaged images using only foreground objects. However, it faces two critical weaknesses: 1) the background knowledge does not integrate effectively with foreground features, resulting in a lack of foreground-background coherence (e.g., color discrepancy); 2) the generation process does not prioritize the fidelity of foreground objects, which leads to distortion, particularly for small objects. To address these issues, we propose a Foreground-Aware Camouflaged Image Generation (FACIG) model. Specifically, we introduce a Foreground-Aware Feature Integration Module (FAFIM) to strengthen the integration between foreground features and background knowledge. In addition, a Foreground-Aware Denoising Loss is designed to enhance foreground reconstruction supervision. Experiments on various datasets show our method outperforms previous methods in overall camouflaged image quality and foreground fidelity.
- Abstract(参考訳): カモフラージュされた視覚知覚におけるデータの不足に対する解決策としてカモフラージュされた画像生成が登場し、データ収集とラベル付けに代わる費用対効果を提供する。
近年、最先端のアプローチでは、前景のオブジェクトのみを用いてカモフラージュ画像を生成することに成功した。
しかし、それは2つの重大な弱点に直面している。
1) 背景知識は前景の特徴と効果的に統合されず, 背景コヒーレンス(例えば, 色差)が欠如している。
2) 生成過程は前景オブジェクトの忠実度を優先しないため,特に小型オブジェクトでは歪みが生じる。
これらの課題に対処するために,前景対応カモフラージュ画像生成(FACIG)モデルを提案する。
具体的には、フォアグラウンド機能統合モジュール(FAFIM)を導入し、フォアグラウンド機能と背景知識の統合を強化する。
さらに、前景の再建管理を強化するために、前景の認知の喪失が設計されている。
様々なデータセットを用いた実験により,提案手法は画像の画質と前景の忠実度において,従来の手法よりも優れていた。
関連論文リスト
- HYPNOS : Highly Precise Foreground-focused Diffusion Finetuning for Inanimate Objects [1.706656684496508]
頑健な拡散モデルは、ある積の結果のほぼ完全な再構成を行う能力によって決定される。
現在の顕著な拡散に基づく微調整技術は、前景オブジェクトの一貫性を維持するには不十分である。
我々は,高精度な前景焦点拡散微調整技術であるHypnosを提案する。
論文 参考訳(メタデータ) (2024-10-18T08:20:37Z) - DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - Painterly Image Harmonization via Adversarial Residual Learning [37.78751164466694]
画家的なイメージは 背景の絵のスタイルを 前景の物体に 転送することを目的としています
本研究では,前景特徴写像と背景特徴写像の間の領域ギャップを埋めるために,逆学習を用いる。
論文 参考訳(メタデータ) (2023-11-15T01:53:46Z) - Take a Prior from Other Tasks for Severe Blur Removal [52.380201909782684]
知識蒸留に基づくクロスレベル特徴学習戦略
多レベルアグリゲーションとセマンティックアテンション変換によるセマンティック事前埋め込み層を効果的に統合する。
GoProやRealBlurのデータセットのような、自然な画像劣化ベンチマークと実世界の画像の実験は、我々の方法の有効性と能力を実証している。
論文 参考訳(メタデータ) (2023-02-14T08:30:51Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Location-Free Camouflage Generation Network [82.74353843283407]
カモフラージュ(Camouflage)は一般的な視覚現象で、前景の物体を背景のイメージに隠すことで、人間の目からは一時的に見えなくなる。
本稿では,前景と背景像の高次特徴を融合させ,一つの推論によって結果を生成する,ロケーションフリーなカモフラージュ生成ネットワーク(LCG-Net)を提案する。
実験により,本手法は単一外観領域における最先端技術と同程度に良好であり,完全に見えない可能性が低いが,多外観領域における最先端技術の品質をはるかに上回っていることが示された。
論文 参考訳(メタデータ) (2022-03-18T10:33:40Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - BachGAN: High-Resolution Image Synthesis from Salient Object Layout [78.51640906030244]
本稿では、より実用的な画像生成のための新しい課題である、有能なオブジェクトレイアウトからの高品質な画像合成を提案する。
i) セグメンテーションマップ入力なしできめ細かい詳細と現実的なテクスチャを生成する方法、(ii) バックグラウンドを作成してスタンドアロンのオブジェクトにシームレスに織り込む方法である。
幻影背景表現を動的に生成することにより,高解像度画像をフォトリアリスティック・フォアグラウンドと積分背景の両方で合成することができる。
論文 参考訳(メタデータ) (2020-03-26T00:54:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。