論文の概要: Nested Unfolding Network for Real-World Concealed Object Segmentation
- arxiv url: http://arxiv.org/abs/2511.18164v1
- Date: Sat, 22 Nov 2025 19:25:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.664451
- Title: Nested Unfolding Network for Real-World Concealed Object Segmentation
- Title(参考訳): 実世界の概念的オブジェクトセグメンテーションのためのネステッド展開ネットワーク
- Authors: Chunming He, Rihan Zhang, Dingming Zhang, Fengyang Xiao, Deng-Ping Fan, Sina Farsiu,
- Abstract要約: 隠れオブジェクトセグメンテーションのためのネスト展開ネットワーク(NUN)を提案する。
NUNはセグメンテーション指向アンフォールディングネットワーク(SODUN)の各段階に分解耐性アンフォールディングネットワーク(DeRUN)を組み込む
実験では、NUNはクリーンなベンチマークと劣化したベンチマークの両方において主要な位置を占めます。
- 参考スコア(独自算出の注目度): 25.42332359957824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep unfolding networks (DUNs) have recently advanced concealed object segmentation (COS) by modeling segmentation as iterative foreground-background separation. However, existing DUN-based methods (RUN) inherently couple background estimation with image restoration, leading to conflicting objectives and requiring pre-defined degradation types, which are unrealistic in real-world scenarios. To address this, we propose the nested unfolding network (NUN), a unified framework for real-world COS. NUN adopts a DUN-in-DUN design, embedding a degradation-resistant unfolding network (DeRUN) within each stage of a segmentation-oriented unfolding network (SODUN). This design decouples restoration from segmentation while allowing mutual refinement. Guided by a vision-language model (VLM), DeRUN dynamically infers degradation semantics and restores high-quality images without explicit priors, whereas SODUN performs reversible estimation to refine foreground and background. Leveraging the multi-stage nature of unfolding, NUN employs image-quality assessment to select the best DeRUN outputs for subsequent stages, naturally introducing a self-consistency loss that enhances robustness. Extensive experiments show that NUN achieves a leading place on both clean and degraded benchmarks. Code will be released.
- Abstract(参考訳): ディープ・アンフォールディング・ネットワーク(DUN)は、最近、前景と背景の分離を反復的にモデル化することによって、隠蔽対象セグメンテーション(COS)を進化させた。
しかし、既存のDUNベースの手法(RUN)は本質的に背景推定と画像復元を組み合わせており、現実のシナリオでは非現実的な目的や事前定義された劣化タイプを必要とする。
そこで本研究では,Nested Unfolding Network (NUN) を提案する。
NUN は DUN-in-DUN の設計を採用し、分解性のある展開ネットワーク (DeRUN) をセグメント化指向の展開ネットワーク (SODUN) の各ステージに埋め込む。
この設計は、相互の洗練を許容しながら、セグメンテーションから復元を分離する。
視覚言語モデル(VLM)によって導かれたDeRUNは、動的に劣化セマンティクスを推論し、明示的な事前条件なしに高品質な画像を復元する一方、SODUNは前景や背景を洗練するために可逆的に推定する。
展開の多段階的な性質を活用して、NUNは画像品質評価を採用し、その後の段階で最高のDeRUN出力を選択し、自然界において堅牢性を高める自己整合性損失を導入している。
大規模な実験により、NUNはクリーンなベンチマークとデグレードベンチマークの両方において、主要な位置を占めた。
コードはリリースされる。
関連論文リスト
- UnfoldIR: Rethinking Deep Unfolding Network in Illumination Degradation Image Restoration [33.290565892897824]
DUN(Deep Openfolding Network)は、照明劣化画像復元(IDIR)に広く利用されている。
IDIRタスクのための新しいDUNベースのUnfoldIRを提案する。
反射率支援照明補正(RAIC)モジュールと照明誘導反射率向上(IGRE)モジュールから構成される。
論文 参考訳(メタデータ) (2025-05-10T16:13:01Z) - A Lightweight Deep Exclusion Unfolding Network for Single Image Reflection Removal [68.0573194557999]
シングルイメージリフレクション除去(SIRR)は、標準的なブラインドソース分離問題である。
本稿ではSIRRのための新しいDeep Exclusion Unfolding Network(DExNet)を提案する。
DExNetは、単純な反復スパースと補助的特徴更新(i-SAFU)アルゴリズムの展開とパラメータ化によって構築される。
論文 参考訳(メタデータ) (2025-03-03T07:54:27Z) - RUN: Reversible Unfolding Network for Concealed Object Segmentation [61.13528324971598]
マスクドメインとRGBドメインの両方にわたる可逆戦略。
マスクとRGBドメインをまたいだ可逆的戦略を適用したReversible Unfolding Network (RUN)を提案する。
論文 参考訳(メタデータ) (2025-01-30T22:19:15Z) - Towards Cross-View-Consistent Self-Supervised Surround Depth Estimation [9.569646683579899]
連続画像からの自己監督下周深度推定は経済的な代替手段を提供する。
従来のSSSDE法では、画像間で情報を融合する異なるメカニズムが提案されているが、それらのいくつかは、クロスビュー制約を明示的に考慮している。
本稿では,SSSDEのクロスビュー一貫性を高めるために,効率的で一貫したポーズ推定設計と2つの損失関数を提案する。
論文 参考訳(メタデータ) (2024-07-04T16:29:05Z) - Multi-task Image Restoration Guided By Robust DINO Features [88.74005987908443]
DINOv2から抽出したロバストな特徴を利用したマルチタスク画像復元手法であるmboxtextbfDINO-IRを提案する。
まず,DINOV2の浅い特徴を動的に融合するPSF (Pixel-semantic fusion) モジュールを提案する。
これらのモジュールを統一された深層モデルに定式化することにより、モデルトレーニングを制約するために、DINO知覚の対照的な損失を提案する。
論文 参考訳(メタデータ) (2023-12-04T06:59:55Z) - Fast Hierarchical Deep Unfolding Network for Image Compressed Sensing [31.71861820004099]
画像圧縮センシングのための高速階層型深部展開ネットワーク(DUN)を提案する。
提案したFHDUNは、より少ないイテレーションを維持しながら、既存の最先端のCSメソッドより優れている。
論文 参考訳(メタデータ) (2022-08-03T03:27:32Z) - Accurate and Lightweight Image Super-Resolution with Model-Guided Deep
Unfolding Network [63.69237156340457]
我々は、モデル誘導深部展開ネットワーク(MoG-DUN)と呼ばれるSISRに対する説明可能なアプローチを提示し、提唱する。
MoG-DUNは正確(エイリアスを少なくする)、計算効率(モデルパラメータを減らした)、多用途(多重劣化を処理できる)である。
RCAN, SRDNF, SRFBNを含む既存の最先端画像手法に対するMoG-DUN手法の優位性は、いくつかの一般的なデータセットと様々な劣化シナリオに関する広範な実験によって実証されている。
論文 参考訳(メタデータ) (2020-09-14T08:23:37Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。