論文の概要: Reversible Unfolding Network for Concealed Visual Perception with Generative Refinement
- arxiv url: http://arxiv.org/abs/2508.15027v1
- Date: Wed, 20 Aug 2025 19:45:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.076461
- Title: Reversible Unfolding Network for Concealed Visual Perception with Generative Refinement
- Title(参考訳): 生成的リファインメントを用いた視覚知覚の可逆的展開ネットワーク
- Authors: Chunming He, Fengyang Xiao, Rihan Zhang, Chengyu Fang, Deng-Ping Fan, Sina Farsiu,
- Abstract要約: 我々は、RUN++と呼ばれる、生成的洗練を伴う可逆的展開ネットワークを提案する。
Run++はまずCVPタスクを数学的最適化問題として定式化し、反復的なソリューションを多段階のディープネットワークに展開する。
このアプローチは、結果として生じる不確実性を解決するために拡散モデルを活用しながら、マスクとRGBドメインの両方にわたって可逆的モデリングを適用するための原則化された方法を提供する。
- 参考スコア(独自算出の注目度): 26.24414051492703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing methods for concealed visual perception (CVP) often leverage reversible strategies to decrease uncertainty, yet these are typically confined to the mask domain, leaving the potential of the RGB domain underexplored. To address this, we propose a reversible unfolding network with generative refinement, termed RUN++. Specifically, RUN++ first formulates the CVP task as a mathematical optimization problem and unfolds the iterative solution into a multi-stage deep network. This approach provides a principled way to apply reversible modeling across both mask and RGB domains while leveraging a diffusion model to resolve the resulting uncertainty. Each stage of the network integrates three purpose-driven modules: a Concealed Object Region Extraction (CORE) module applies reversible modeling to the mask domain to identify core object regions; a Context-Aware Region Enhancement (CARE) module extends this principle to the RGB domain to foster better foreground-background separation; and a Finetuning Iteration via Noise-based Enhancement (FINE) module provides a final refinement. The FINE module introduces a targeted Bernoulli diffusion model that refines only the uncertain regions of the segmentation mask, harnessing the generative power of diffusion for fine-detail restoration without the prohibitive computational cost of a full-image process. This unique synergy, where the unfolding network provides a strong uncertainty prior for the diffusion model, allows RUN++ to efficiently direct its focus toward ambiguous areas, significantly mitigating false positives and negatives. Furthermore, we introduce a new paradigm for building robust CVP systems that remain effective under real-world degradations and extend this concept into a broader bi-level optimization framework.
- Abstract(参考訳): 既存の隠れ視覚知覚法(CVP)は、しばしば不確実性を減少させるために可逆的戦略を利用するが、これらは通常マスク領域に限られ、RGB領域の可能性は未解明のままである。
そこで本研究では,RUN++ と呼ばれる生成的改良を施した可逆展開ネットワークを提案する。
具体的には、RUN++はまずCVPタスクを数学的最適化問題として定式化し、反復解を多段深層ネットワークに展開する。
このアプローチは、結果として生じる不確実性を解決するために拡散モデルを活用しながら、マスクとRGBドメインの両方にわたって可逆的モデリングを適用するための原則化された方法を提供する。
ネットワークの各段階は、3つの目的駆動モジュールを統合している: Concealed Object Region extract (CORE) モジュールは、コアオブジェクト領域を特定するためにマスクドメインに可逆的モデリングを適用し、Context-Aware Region Enhancement (CARE) モジュールは、この原則をRGBドメインに拡張し、前景と背景の分離を改善する。
FINEモジュールはターゲットベルヌーイ拡散モデルを導入し、セグメント化マスクの不確実な領域のみを洗練し、フルイメージの計算コストを禁ずることなく、微細な復元のために拡散の生成力を利用する。
このユニークなシナジーは、展開ネットワークが拡散モデルに強い不確実性をもたらすもので、RUN++は、その焦点を曖昧な領域に効率よく向け、偽陽性と負陰性を著しく緩和することができる。
さらに、実世界の劣化下では有効であり続ける堅牢なCVPシステムを構築するための新しいパラダイムを導入し、この概念をより広範な双方向最適化フレームワークに拡張する。
関連論文リスト
- Exploring Probabilistic Modeling Beyond Domain Generalization for Semantic Segmentation [37.724608645202466]
ドメイン一般化セマンティック(DGSS)は、目に見えない環境でのドメインシフトがモデルパフォーマンスを著しく損なう可能性があるため、重要な課題である。
本稿では,既存のセグメンテーションネットワークの一般化を促進する確率的拡散アライメントフレームワークPDAFを紹介する。
実験は、多様で挑戦的な都市シーンにおけるPDAFの有効性を検証する。
論文 参考訳(メタデータ) (2025-07-28T22:27:58Z) - A Lightweight Deep Exclusion Unfolding Network for Single Image Reflection Removal [68.0573194557999]
シングルイメージリフレクション除去(SIRR)は、標準的なブラインドソース分離問題である。
本稿ではSIRRのための新しいDeep Exclusion Unfolding Network(DExNet)を提案する。
DExNetは、単純な反復スパースと補助的特徴更新(i-SAFU)アルゴリズムの展開とパラメータ化によって構築される。
論文 参考訳(メタデータ) (2025-03-03T07:54:27Z) - RUN: Reversible Unfolding Network for Concealed Object Segmentation [61.13528324971598]
マスクドメインとRGBドメインの両方にわたる可逆戦略。
マスクとRGBドメインをまたいだ可逆的戦略を適用したReversible Unfolding Network (RUN)を提案する。
論文 参考訳(メタデータ) (2025-01-30T22:19:15Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Reconstruction-driven Dynamic Refinement based Unsupervised Domain
Adaptation for Joint Optic Disc and Cup Segmentation [25.750583118977833]
緑内障は可逆性失明の主要な原因の1つである。
OD/OCセグメンテーションモデルをトレーニングすることは依然として難しい。
本稿ではリコンストラクション駆動動的リファインメントネットワーク(RDR-Net)と呼ばれる新しい非教師なし領域適応(UDA)手法を提案する。
論文 参考訳(メタデータ) (2023-04-10T13:33:13Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - MSO: Multi-Feature Space Joint Optimization Network for RGB-Infrared
Person Re-Identification [35.97494894205023]
RGB-infrared cross-modality person re-identification (ReID) タスクは、可視モダリティと赤外線モダリティの同一性の画像を認識することを目的としている。
既存の手法は主に2ストリームアーキテクチャを使用して、最終的な共通特徴空間における2つのモード間の相違を取り除く。
単一モダリティ空間と共通空間の両方において、モダリティ調和可能な特徴を学習できる新しい多機能空間共同最適化(MSO)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-21T16:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。