論文の概要: Diffusion Model for Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2308.00303v2
- Date: Sat, 5 Aug 2023 13:14:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 20:06:51.207867
- Title: Diffusion Model for Camouflaged Object Detection
- Title(参考訳): カモフラージュ物体検出のための拡散モデル
- Authors: Zhennan Chen, Rongrong Gao, Tian-Zhu Xiang, Fan Lin
- Abstract要約: 本稿では,拡散型物体検出のための拡散型フレームワーク diffCOD を提案する。
提案手法は,既存の11種類の最先端手法と比較して良好な性能を示す。
- 参考スコア(独自算出の注目度): 2.592600158870236
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Camouflaged object detection is a challenging task that aims to identify
objects that are highly similar to their background. Due to the powerful
noise-to-image denoising capability of denoising diffusion models, in this
paper, we propose a diffusion-based framework for camouflaged object detection,
termed diffCOD, a new framework that considers the camouflaged object
segmentation task as a denoising diffusion process from noisy masks to object
masks. Specifically, the object mask diffuses from the ground-truth masks to a
random distribution, and the designed model learns to reverse this noising
process. To strengthen the denoising learning, the input image prior is encoded
and integrated into the denoising diffusion model to guide the diffusion
process. Furthermore, we design an injection attention module (IAM) to interact
conditional semantic features extracted from the image with the diffusion noise
embedding via the cross-attention mechanism to enhance denoising learning.
Extensive experiments on four widely used COD benchmark datasets demonstrate
that the proposed method achieves favorable performance compared to the
existing 11 state-of-the-art methods, especially in the detailed texture
segmentation of camouflaged objects. Our code will be made publicly available
at: https://github.com/ZNan-Chen/diffCOD.
- Abstract(参考訳): camouflaged object detectionは、バックグラウンドと非常に似たオブジェクトを識別することを目的とした、難しいタスクである。
そこで,本稿では,拡散モデルのノイズから画像へのデノージングを強力に行うため,迷彩物体検出のための拡散ベースフレームワークdiffcodを提案し,このフレームワークは,迷彩物体分割タスクを雑音マスクからオブジェクトマスクへのデノージング拡散プロセスとして捉える。
具体的には、被写体マスクが地対面マスクからランダム分布に拡散し、設計されたモデルは、このノイズ処理を逆転することを学習する。
減音学習を強化するために、先行入力画像が符号化され、減音拡散モデルに統合され、拡散過程を導く。
さらに、画像から抽出した条件意味的特徴と拡散雑音の埋め込みとを相互注意機構を介して相互作用させ、聴覚学習を強化するインジェクションアテンションモジュール(IAM)を設計する。
4つの広く使われているcodベンチマークデータセットに関する広範囲な実験により、提案手法は、既存の11の最先端手法、特にカモフラージュされたオブジェクトの詳細なテクスチャセグメンテーションに比べて良好な性能が得られることが示された。
私たちのコードは、https://github.com/ZNan-Chen/diffCOD.comで公開されます。
関連論文リスト
- DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Denoising Diffusion Bridge Models [54.87947768074036]
拡散モデルは、プロセスを使用してデータにノイズをマッピングする強力な生成モデルである。
画像編集のような多くのアプリケーションでは、モデル入力はランダムノイズではない分布から来る。
本研究では, DDBM(Denoising Diffusion Bridge Models)を提案する。
論文 参考訳(メタデータ) (2023-09-29T03:24:24Z) - Diffusion in Diffusion: Cyclic One-Way Diffusion for Text-Vision-Conditioned Generation [11.80682025950519]
本研究では,拡散(機械学習)特性の拡散(物理学)について検討する。
拡散現象の方向を制御するために,循環一流拡散法(COW)を提案する。
本手法は,タスクニーズを理解するための新しい視点を提供し,より広い範囲のカスタマイズシナリオに適用可能である。
論文 参考訳(メタデータ) (2023-06-14T05:25:06Z) - Denoising Diffusion Semantic Segmentation with Mask Prior Modeling [61.73352242029671]
本稿では,従来の識別的アプローチのセマンティックセグメンテーション品質を,デノナイズ拡散生成モデルでモデル化したマスクを用いて改善することを提案する。
市販セグメンタを用いた先行モデルの評価を行い,ADE20KとCityscapesの実験結果から,本手法が競争力のある定量的性能を実現することを示す。
論文 参考訳(メタデータ) (2023-06-02T17:47:01Z) - CamoDiffusion: Camouflaged Object Detection via Conditional Diffusion
Models [72.93652777646233]
カモフラーゲ型物体検出(COD)は、カモフラーゲ型物体とその周囲の類似性が高いため、コンピュータビジョンにおいて難しい課題である。
本研究では,CODを拡散モデルを利用した条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
カモ拡散(CamoDiffusion)と呼ばれる本手法では,拡散モデルのデノナイズプロセスを用いてマスクの雑音を反復的に低減する。
論文 参考訳(メタデータ) (2023-05-29T07:49:44Z) - Real-World Denoising via Diffusion Model [14.722529440511446]
実世界のイメージデノイングは、自然の環境で撮影されたノイズの多い画像からクリーンなイメージを復元することを目的としている。
拡散モデルは画像生成の分野で非常に有望な結果を得た。
本稿では,実世界の画像のデノナイズに使用可能な,新しい一般デノナイズ拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-05-08T04:48:03Z) - A Cheaper and Better Diffusion Language Model with Soft-Masked Noise [62.719656543880596]
Masked-Diffuse LMは言語モデリングのための新しい拡散モデルであり、言語の言語的特徴に触発されている。
具体的には,テキストデータのノイズを改善するために,戦略的ソフトマスキングによってテキストに劣化を加える言語情報処理を設計する。
我々は,我々のMasked-Diffuse LMが,高効率の最先端拡散モデルよりも優れた生成品質を達成できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:58:42Z) - Image Embedding for Denoising Generative Models [0.0]
逆拡散過程の決定論的性質から拡散入射モデルに着目する。
本研究の副次として,拡散モデルの潜伏空間の構造についてより深い知見を得た。
論文 参考訳(メタデータ) (2022-12-30T17:56:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。