論文の概要: GenCAMO: Scene-Graph Contextual Decoupling for Environment-aware and Mask-free Camouflage Image-Dense Annotation Generation
- arxiv url: http://arxiv.org/abs/2601.01181v1
- Date: Sat, 03 Jan 2026 13:13:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.065887
- Title: GenCAMO: Scene-Graph Contextual Decoupling for Environment-aware and Mask-free Camouflage Image-Dense Annotation Generation
- Title(参考訳): GenCAMO:環境認識とマスクフリーのカモフラージュ画像-ディエンスアノテーション生成のためのシーングラフコンテキストデカップリング
- Authors: Chenglizhao Chen, Shaojiang Yuan, Xiaoxue Lu, Mengke Song, Jia Song, Zhenyu Wu, Wenfeng Song, Shuai Li,
- Abstract要約: GenCAMOは環境に配慮したマスフリーな生成フレームワークであり、高忠実度カモフラージュ画像センスアノテーションを生成する。
我々は,高忠実度カモフラージュ画像センスアノテーションを生成する環境認識・マスフリー生成フレームワークGenCAMOを提案する。
- 参考スコア(独自算出の注目度): 32.630064141052166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conceal dense prediction (CDP), especially RGB-D camouflage object detection and open-vocabulary camouflage object segmentation, plays a crucial role in advancing the understanding and reasoning of complex camouflage scenes. However, high-quality and large-scale camouflage datasets with dense annotation remain scarce due to expensive data collection and labeling costs. To address this challenge, we explore leveraging generative models to synthesize realistic camouflage image-dense data for training CDP models with fine-grained representations, prior knowledge, and auxiliary reasoning. Concretely, our contributions are threefold: (i) we introduce GenCAMO-DB, a large-scale camouflage dataset with multi-modal annotations, including depth maps, scene graphs, attribute descriptions, and text prompts; (ii) we present GenCAMO, an environment-aware and mask-free generative framework that produces high-fidelity camouflage image-dense annotations; (iii) extensive experiments across multiple modalities demonstrate that GenCAMO significantly improves dense prediction performance on complex camouflage scenes by providing high-quality synthetic data. The code and datasets will be released after paper acceptance.
- Abstract(参考訳): コンセント密度予測(CDP)、特にRGB-Dカモフラージュオブジェクトの検出と開語彙カモフラージュオブジェクトセグメンテーションは、複雑なカモフラージュシーンの理解と推論を促進する上で重要な役割を担っている。
しかし、高価なデータ収集とラベル付けコストのため、高密度アノテーションを持つ高品質で大規模なカモフラージュデータセットは依然として不足している。
この課題に対処するために、我々は生成モデルを活用して現実的なカモフラージュ画像密度データを合成し、詳細な表現、事前知識、補助的推論を用いてCDPモデルを訓練する。
具体的には、私たちの貢献は3倍です。
(i)GenCAMO-DBは、深度マップ、シーングラフ、属性記述、テキストプロンプトを含むマルチモーダルアノテーションを備えた大規模カモフラージュデータセットである。
(II)GenCAMOは環境に配慮したマスフリーな生成フレームワークで,高忠実度カモフラージュ画像センスアノテーションを生成する。
3)複数のモードにわたる広範な実験により,GenCAMOは,高品質な合成データを提供することにより,複雑なカモフラージュシーンにおける密度予測性能を著しく向上することが示された。
コードとデータセットは、論文の受理後にリリースされる。
関連論文リスト
- Text-guided Controllable Diffusion for Realistic Camouflage Images Generation [33.31050008276478]
カモフラージュ画像生成(CIG)は、物体が調和してブレンドされ、周囲と高い視覚的一貫性を示す合成画像に焦点を当てた新興研究分野である。
本稿では,リアルかつ論理的に妥当なカモフラージュ画像を生成する制御可能なテキスト誘導カモフラージュ画像生成手法を提案する。
論文 参考訳(メタデータ) (2025-11-25T11:43:58Z) - Unlocking Attributes' Contribution to Successful Camouflage: A Combined Textual and VisualAnalysis Strategy [27.251750465641305]
本研究は,カモフラージュ特性がカモフラージュパターンの有効性に与える影響を総合的に検討する。
カモフラージュされたオブジェクトとその属性コントリビューションを記述した最初のデータセットをコンパイルした。
我々は,Camouflaged Object Attribution(COS)タスクのためのテキスト情報と視覚情報を組み合わせた堅牢なフレームワークを開発した。
ACUMENは優れたパフォーマンスを示し、3つの広く使用されているデータセットで9つのリードメソッドを上回っている。
論文 参考訳(メタデータ) (2024-08-22T02:51:21Z) - Camouflaged Image Synthesis Is All You Need to Boost Camouflaged Detection [47.653092957888596]
本研究では,カモフラージュデータの合成フレームワークを提案する。
提案手法では,既存の物体検出モデルのトレーニングに使用可能な,現実的なカモフラージュ画像の生成に生成モデルを用いる。
我々のフレームワークは3つのデータセット上で最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-08-13T06:55:05Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z) - CamDiff: Camouflage Image Augmentation via Diffusion Model [83.35960536063857]
CamDiffは、カモフラージュされたシーンで透明なオブジェクトを合成するための新しいアプローチだ。
我々は,潜伏拡散モデルを用いて,カモフラージュされたシーンで有能な物体を合成する。
当社のアプローチでは、フレキシブルな編集と大規模データセットの効率的な生成を低コストで実現している。
論文 参考訳(メタデータ) (2023-04-11T19:37:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。