論文の概要: Trash or Treasure? An Interactive Dual-Stream Strategy for Single Image
Reflection Separation
- arxiv url: http://arxiv.org/abs/2110.10546v1
- Date: Wed, 20 Oct 2021 13:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:34:27.398533
- Title: Trash or Treasure? An Interactive Dual-Stream Strategy for Single Image
Reflection Separation
- Title(参考訳): ゴミか宝物か?
単一画像反射分離のための対話型デュアルストリーム戦略
- Authors: Qiming Hu, Xiaojie Guo
- Abstract要約: この研究は、一般的な単純なインタラクティブな戦略を示し、つまり、$textityour trash is my treasure$ (YTMT) で二重ストリーム分解ネットワークを構築する。
2つのコンポーネント間の付加的な性質にインスパイアされたインタラクティブパスは、ReLUが一方のストリームからもう一方のストリームへ非活性化した情報を破棄する代わりに、転送によって簡単に構築できる。
- 参考スコア(独自算出の注目度): 8.707025631892202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single image reflection separation (SIRS), as a representative blind source
separation task, aims to recover two layers, $\textit{i.e.}$, transmission and
reflection, from one mixed observation, which is challenging due to the highly
ill-posed nature. Existing deep learning based solutions typically restore the
target layers individually, or with some concerns at the end of the output,
barely taking into account the interaction across the two streams/branches. In
order to utilize information more efficiently, this work presents a general yet
simple interactive strategy, namely $\textit{your trash is my treasure}$
(YTMT), for constructing dual-stream decomposition networks. To be specific, we
explicitly enforce the two streams to communicate with each other block-wisely.
Inspired by the additive property between the two components, the interactive
path can be easily built via transferring, instead of discarding, deactivated
information by the ReLU rectifier from one stream to the other. Both ablation
studies and experimental results on widely-used SIRS datasets are conducted to
demonstrate the efficacy of YTMT, and reveal its superiority over other
state-of-the-art alternatives. The implementation is quite simple and our code
is publicly available at
$\href{https://github.com/mingcv/YTMT-Strategy}{\textit{https://github.com/mingcv/YTMT-Strategy}}$.
- Abstract(参考訳): 単一画像反射分離(sirs、single image reflection separation)は、代表的なブラインドソース分離タスクとして、1つの混合観察から$\textit{i.e}$という2つの層を復元することを目的としている。
既存のディープラーニングベースのソリューションは、通常、ターゲット層を個別に復元するか、出力の最後にいくつかの懸念を持って、2つのストリーム/ブランチ間の相互作用をほとんど考慮しない。
情報をより効率的に活用するために、この研究は、二重ストリーム分解ネットワークを構築するための一般的な単純な対話戦略である$\textit{your trash is my treasure}$ (YTMT)を提示している。
具体的には、2つのストリームをブロックごとに通信するために明示的に強制します。
2つのコンポーネント間の付加特性にインスパイアされた対話パスは、ReLU整流器による非活性化情報を1つのストリームからもう1つのストリームへ転送することで簡単に構築できる。
広く使用されているSIRSデータセットに対するアブレーション研究と実験結果の両方を、YTMTの有効性を実証し、他の最先端の代替品よりもその優位性を明らかにするために実施した。
実装は非常にシンプルで、コードは$\href{https://github.com/mingcv/ytmt-strategy}{\textit{https://github.com/mingcv/ytmt-strategy}}$で公開されています。
関連論文リスト
- Reversible Decoupling Network for Single Image Reflection Removal [15.763420129991255]
高レベルのセマンティックなヒントは、層間伝播中に圧縮または破棄される傾向がある。
我々はReversible Decoupling Network (RDNet)と呼ばれる新しいアーキテクチャを提案する。
RDNetは可逆エンコーダを使用して、転送時と反射時の特徴を柔軟に分離しながら、貴重な情報を確保する。
論文 参考訳(メタデータ) (2024-10-10T15:58:27Z) - SimVG: A Simple Framework for Visual Grounding with Decoupled Multi-modal Fusion [20.016192628108158]
視覚的接地は、画像の対応する領域に記述文を接地する、一般的な視覚課題である。
既存のほとんどの手法では、独立した画像テキストエンコーディングを使用し、複雑な手作りモジュールやエンコーダ・デコーダアーキテクチャを用いてモーダルインタラクションやクエリ推論を行っている。
これは、前者のパラダイムがマルチモーダルな特徴融合に適合するために、限られた下流データのみを使用するためである。
本稿では,ビジュアルグラウンドティングのためのシンプルだが頑健なトランスフォーマーベースのフレームワーク,SimVGを提案する。
論文 参考訳(メタデータ) (2024-09-26T04:36:19Z) - SegVG: Transferring Object Bounding Box to Segmentation for Visual Grounding [56.079013202051094]
ボックスレベルのアノテーションを信号として転送する新しい手法であるSegVGを提案する。
このアプローチでは,ボックスレベルのレグレッションとピクセルレベルのセグメンテーションの両方の信号としてアノテーションを反復的に利用することができる。
論文 参考訳(メタデータ) (2024-07-03T15:30:45Z) - Semantic-guided Adversarial Diffusion Model for Self-supervised Shadow Removal [5.083330121710086]
GANベースのトレーニングは、しばしばモード崩壊や不安定な最適化といった問題に直面している。
自己教師付きシャドウ除去のための意味誘導逆拡散フレームワークを提案する。
複数の公開データセットで実験を行い,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-07-01T09:14:38Z) - Towards Flexible Interactive Reflection Removal with Human Guidance [75.38207315080624]
単一の画像反射除去は本質的に不明瞭であり、分離を必要とする反射成分と透過成分の両方が自然な画像統計に従う可能性がある。
既存の手法では、様々な種類の低レベルおよび物理ベースのキューを反射信号の源として利用することでこの問題に対処しようとする。
本稿では,様々な形態のスパース・ヒューマン・ガイダンスを活用するフレキシブル・インタラクティブ・リフレクション・リフレクション・リフレクション・リフレクション・リジェクション・リジェクション・アプローチを提案する。
論文 参考訳(メタデータ) (2024-06-03T17:34:37Z) - Spatial Semantic Recurrent Mining for Referring Image Segmentation [63.34997546393106]
高品質なクロスモーダリティ融合を実現するために,Stextsuperscript2RMを提案する。
これは、言語特徴の分散、空間的意味的再帰的分離、パーセマンティック・セマンティック・バランシングという三部作の作業戦略に従う。
提案手法は他の最先端アルゴリズムに対して好適に機能する。
論文 参考訳(メタデータ) (2024-05-15T00:17:48Z) - Beyond One-to-One: Rethinking the Referring Image Segmentation [117.53010476628029]
イメージセグメンテーションの参照は、自然言語表現によって参照される対象オブジェクトをセグメンテーションすることを目的としている。
2つのデコーダ分岐を含むDMMI(Dual Multi-Modal Interaction)ネットワークを提案する。
テキスト・ツー・イメージ・デコーダでは、テキストの埋め込みを利用して視覚的特徴を検索し、対応するターゲットをローカライズする。
一方、画像からテキストへのデコーダは、視覚的特徴に条件付けられた消去されたエンティティ・フレーズを再構成するために実装される。
論文 参考訳(メタデータ) (2023-08-26T11:39:22Z) - Reference Twice: A Simple and Unified Baseline for Few-Shot Instance Segmentation [103.90033029330527]
FSIS(Few-Shot Instance)は、サポート例が限定された新しいクラスの検出とセグメンテーションを必要とする。
我々は、FSISのサポートとクエリ機能の関係を利用するための統合フレームワーク、Reference Twice(RefT)を導入する。
論文 参考訳(メタデータ) (2023-01-03T15:33:48Z) - GEN-VLKT: Simplify Association and Enhance Interaction Understanding for
HOI Detection [17.92210977820113]
本稿では,2分岐パイプラインをポストマッチングなしで実現するためのガイド埋め込みネットワーク(GEN)を提案する。
協会にとって、以前の2枝の手法は複雑でコストのかかるポストマッチングに悩まされる。
相互作用理解のために、従来の手法は長い尾の分布とゼロショット発見に悩まされていた。
論文 参考訳(メタデータ) (2022-03-26T01:04:13Z) - Two-Stage Single Image Reflection Removal with Reflection-Aware Guidance [78.34235841168031]
シングルイメージリフレクション除去(SIRR)のためのリフレクション・アウェア・ガイダンス(RAGNet)を用いた新しい2段階ネットワークを提案する。
RAGは、(i)観測からの反射の効果を緩和するために、(ii)線形結合仮説から逸脱する効果を緩和するための部分畳み込みにおいてマスクを生成するために用いられる。
5つの一般的なデータセットの実験は、最先端のSIRR法と比較して、RAGNetの量的および質的な優位性を実証している。
論文 参考訳(メタデータ) (2020-12-02T03:14:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。