論文の概要: Reversible Decoupling Network for Single Image Reflection Removal
- arxiv url: http://arxiv.org/abs/2410.08063v2
- Date: Mon, 31 Mar 2025 16:19:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:29:39.563089
- Title: Reversible Decoupling Network for Single Image Reflection Removal
- Title(参考訳): 単体反射除去のための可逆デカップリングネットワーク
- Authors: Hao Zhao, Mingjia Li, Qiming Hu, Xiaojie Guo,
- Abstract要約: 本稿では, 可逆エンコーダを提案し, 透過・反射関連特性を柔軟に分離する。
RDNet は NTIRE 2025 Single Image Reflection removal in the Wild Challenge において、忠実さと知覚的比較の両方において最高のパフォーマンスを達成している。
- 参考スコア(独自算出の注目度): 15.763420129991255
- License:
- Abstract: Recent deep-learning-based approaches to single-image reflection removal have shown promising advances, primarily for two reasons: 1) the utilization of recognition-pretrained features as inputs, and 2) the design of dual-stream interaction networks. However, according to the Information Bottleneck principle, high-level semantic clues tend to be compressed or discarded during layer-by-layer propagation. Additionally, interactions in dual-stream networks follow a fixed pattern across different layers, limiting overall performance. To address these limitations, we propose a novel architecture called Reversible Decoupling Network (RDNet), which employs a reversible encoder to secure valuable information while flexibly decoupling transmission- and reflection-relevant features during the forward pass. Furthermore, we customize a transmission-rate-aware prompt generator to dynamically calibrate features, further boosting performance. Extensive experiments demonstrate the superiority of RDNet over existing SOTA methods on five widely-adopted benchmark datasets. RDNet achieves the best performance in the NTIRE 2025 Single Image Reflection Removal in the Wild Challenge in both fidelity and perceptual comparison. Our code is available at https://github.com/lime-j/RDNet
- Abstract(参考訳): 最近の深層学習に基づく単一像の反射除去へのアプローチは、主に2つの理由から、有望な進歩を示している。
1)入力としての認識事前特徴の活用,及び
2)デュアルストリーム・インタラクション・ネットワークの設計
しかし、Information Bottleneckの原則によれば、階層間伝播中に高レベルのセマンティックヒントが圧縮または破棄される傾向にある。
さらに、デュアルストリームネットワークにおけるインタラクションは、異なるレイヤにまたがる固定パターンに従うため、全体的なパフォーマンスが制限される。
これらの制約に対処するため,トランスミッションおよびリフレクション関連機能を前方通過中に柔軟にデカップリングしながら,可逆エンコーダを用いて有意義な情報を確保するRDNetという新しいアーキテクチャを提案する。
さらに,トランスミッションレート・アウェア・プロンプト・ジェネレータをカスタマイズして特徴を動的に校正し,さらなる性能向上を図る。
大規模な実験は、広く評価された5つのベンチマークデータセット上の既存のSOTAメソッドよりもRDNetの方が優れていることを示す。
RDNet は NTIRE 2025 Single Image Reflection removal in the Wild Challenge において、忠実さと知覚的比較の両方において最高のパフォーマンスを達成している。
私たちのコードはhttps://github.com/lime-j/RDNetで利用可能です。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Dual-stream contrastive predictive network with joint handcrafted
feature view for SAR ship classification [9.251342335645765]
本稿では,新しいデュアルストリームコントラスト予測ネットワーク(DCPNet)を提案する。
最初のタスクは正のサンプルペアを構築し、コアエンコーダにより一般的な表現を学習させることである。
第2の課題は, 深部特徴と手話特徴との対応を適応的に把握し, モデル内での知識伝達を実現し, 特徴融合による冗長性を効果的に改善することである。
論文 参考訳(メタデータ) (2023-11-26T05:47:01Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - Boundary-semantic collaborative guidance network with dual-stream
feedback mechanism for salient object detection in optical remote sensing
imagery [22.21644705244091]
二重ストリームフィードバック機構を備えた境界意味協調誘導ネットワーク(BSCGNet)を提案する。
BSCGNetは、近年提案されている17の最先端(SOTA)アプローチよりも優れた、挑戦的なシナリオにおいて、明確なアドバンテージを示している。
論文 参考訳(メタデータ) (2023-03-06T03:36:06Z) - m-RevNet: Deep Reversible Neural Networks with Momentum [25.609808975649624]
本稿では,m-RevNetと呼ばれる可逆ニューラルネットワークを提案する。
ある種の学習シナリオでは、標準的なResNetが失敗しながらm-RevNetが成功することを分析的に実証的に明らかにします。
論文 参考訳(メタデータ) (2021-08-12T17:14:32Z) - Deep Learning-based Implicit CSI Feedback in Massive MIMO [68.81204537021821]
ニューラルネットワーク(NN)を用いて,プリコーディング行列インジケータ(PMI)符号化とデコードモジュールを置き換える,低オーバヘッド特性を継承するDLベースの暗黙的フィードバックアーキテクチャを提案する。
1つのリソースブロック(RB)では、2つのアンテナ構成下のタイプIコードブックと比較して25.0%と40.0%のオーバーヘッドを節約できる。
論文 参考訳(メタデータ) (2021-05-21T02:43:02Z) - Binarized Aggregated Network with Quantization: Flexible Deep Learning
Deployment for CSI Feedback in Massive MIMO System [22.068682756598914]
アグリゲートチャネル再構築ネットワーク(ACRNet)と呼ばれる新しいネットワークは、フィードバックパフォーマンスを高めるように設計されています。
異なる資源制約を満たすために,ネットワークを柔軟に適応させる弾性フィードバック方式を提案する。
実験の結果、提案したACRNetは従来の最先端ネットワークの負荷よりも優れていた。
論文 参考訳(メタデータ) (2021-05-01T22:50:25Z) - CondenseNet V2: Sparse Feature Reactivation for Deep Networks [87.38447745642479]
高密度接続によるディープネットワークの機能再利用は、高い計算効率を達成する効果的な方法である。
スパース機能再活性化(SFR)と呼ばれる代替アプローチを提案し、再利用機能の有用性を積極的に高めることを目指しています。
提案手法は画像分類(ImageNet, CIFAR)とオブジェクト検出(MSCOCO)において,理論的効率と実用的速度の両面で有望な性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-04-09T14:12:43Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Suppress and Balance: A Simple Gated Network for Salient Object
Detection [89.88222217065858]
両問題を同時に解くための単純なゲートネットワーク(GateNet)を提案する。
多レベルゲートユニットの助けを借りて、エンコーダからの貴重なコンテキスト情報をデコーダに最適に送信することができる。
さらに,提案したFold-ASPP操作(Fold-ASPP)に基づくアトラス空間ピラミッドプーリングを用いて,様々なスケールのサリアンオブジェクトを正確に位置決めする。
論文 参考訳(メタデータ) (2020-07-16T02:00:53Z) - Lifted Regression/Reconstruction Networks [17.89437720094451]
本稿では,リフレクション/リコンストラクションネットワーク(LRRN)を提案する。
LRRNは、昇降ニューラルネットワークと出力層に対する保証されたリプシッツ連続性特性を結合する。
教師なし・教師なし学習への応用を解析・数値的に実証する。
論文 参考訳(メタデータ) (2020-05-07T13:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。