論文の概要: Multi-Scale Iterative Refinement Network for RGB-D Salient Object
Detection
- arxiv url: http://arxiv.org/abs/2201.09574v1
- Date: Mon, 24 Jan 2022 10:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 01:06:15.403618
- Title: Multi-Scale Iterative Refinement Network for RGB-D Salient Object
Detection
- Title(参考訳): RGB次元高次物体検出のためのマルチスケール反復リファインメントネットワーク
- Authors: Ze-yu Liu, Jian-wei Liu, Xin Zuo, Ming-fei Hu
- Abstract要約: RGB画像の様々なスケールや解像度に、様々な特徴レベルの意味的ギャップがあるため、健全な視覚的手がかりが現れる。
同様のサージェントパターンは、クロスモーダルなディープイメージとマルチスケールバージョンで利用できる。
注意に基づく融合モジュール (ABF) を設計し, 相互相関に対処する。
- 参考スコア(独自算出の注目度): 7.062058947498447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The extensive research leveraging RGB-D information has been exploited in
salient object detection. However, salient visual cues appear in various scales
and resolutions of RGB images due to semantic gaps at different feature levels.
Meanwhile, similar salient patterns are available in cross-modal depth images
as well as multi-scale versions. Cross-modal fusion and multi-scale refinement
are still an open problem in RGB-D salient object detection task. In this
paper, we begin by introducing top-down and bottom-up iterative refinement
architecture to leverage multi-scale features, and then devise attention based
fusion module (ABF) to address on cross-modal correlation. We conduct extensive
experiments on seven public datasets. The experimental results show the
effectiveness of our devised method
- Abstract(参考訳): rgb-d情報を活用した広範な研究は、サルエント物体検出に利用されている。
しかし,RGB画像の様々なスケールや解像度には,特徴レベルの意味的ギャップが原因で,有意な視覚的手がかりが現れる。
一方、同様のサルエントパターンはマルチスケール版と同様にクロスモーダル深度画像でも利用可能である。
クロスモーダル融合とマルチスケールリファインメントは、RGB-Dサルエント物体検出タスクにおいて依然として未解決の問題である。
本稿では,マルチスケール機能を活用するためにトップダウンとボトムアップの反復的リファインメントアーキテクチャを導入し,次に注意に基づく融合モジュール(abf)を考案し,クロスモーダル相関に対処する。
7つの公開データセットについて広範な実験を行う。
実験の結果, 提案手法の有効性が示された。
関連論文リスト
- A Saliency Enhanced Feature Fusion based multiscale RGB-D Salient Object
Detection Network [9.855404465174455]
マルチスケール畳み込みニューラルネットワーク(Multiscale Convolutional Neural Network, CNN)は、様々な視覚問題を解く際、顕著な能力を示した。
本稿では,RGB-D唾液濃度検出のためのSaliency Enhanced Feature Fusion (SEFF) と呼ばれる機能融合モジュールを提案する。
論文 参考訳(メタデータ) (2024-01-22T13:01:35Z) - HODINet: High-Order Discrepant Interaction Network for RGB-D Salient
Object Detection [4.007827908611563]
RGB-D Salient Object Detection (SOD) は、RGBと深度情報を共同でモデル化することで、顕著な領域を検出することを目的としている。
ほとんどのRGB-D SOD法は、同じ種類のバックボーンと融合モジュールを適用して、マルチモーダリティとマルチステージの特徴を同一に学習する。
本稿では,RGB-D SODのための高次離散相互作用ネットワーク(HODINet)を提案する。
論文 参考訳(メタデータ) (2023-07-03T11:56:21Z) - HiDAnet: RGB-D Salient Object Detection via Hierarchical Depth Awareness [2.341385717236931]
本稿では,RGB-Dサリエンシ検出のための階層的深度認識ネットワーク(HiDAnet)を提案する。
我々のモチベーションは、幾何学的先行の多粒性特性がニューラルネットワーク階層とよく相関しているという観察から来ています。
当社のHiDAnetは最先端の手法よりも大きなマージンで良好に動作します。
論文 参考訳(メタデータ) (2023-01-18T10:00:59Z) - Interactive Context-Aware Network for RGB-T Salient Object Detection [7.544240329265388]
ICANet(Interactive Context-Aware Network)と呼ばれる新しいネットワークを提案する。
ICANetには、クロスモーダルとクロススケールの融合を効果的に実行する3つのモジュールが含まれている。
実験により,我々のネットワークは最先端のRGB-T SOD法に対して良好に動作していることが示された。
論文 参考訳(メタデータ) (2022-11-11T10:04:36Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - ObjectFormer for Image Manipulation Detection and Localization [118.89882740099137]
画像操作の検出とローカライズを行うObjectFormerを提案する。
画像の高周波特徴を抽出し,マルチモーダルパッチの埋め込みとしてRGB特徴と組み合わせる。
各種データセットについて広範な実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-28T12:27:34Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - Deep RGB-D Saliency Detection with Depth-Sensitive Attention and
Automatic Multi-Modal Fusion [15.033234579900657]
RGB-Dサラエントオブジェクト検出(SOD)は通常、2つのモダリティ、すなわちRGBと深さの分類または回帰の問題として定式化される。
本稿では,salient objectsの奥行き方向幾何学的前置を用いた深さ感応型rgb特徴モデリング手法を提案する。
7つの標準ベンチマークに関する実験は、最先端技術に対する提案手法の有効性を示している。
論文 参考訳(メタデータ) (2021-03-22T13:28:45Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z) - A Parallel Down-Up Fusion Network for Salient Object Detection in
Optical Remote Sensing Images [82.87122287748791]
光リモートセンシング画像(RSI)における有意な物体検出のための新しい並列ダウンアップフュージョンネットワーク(PDF-Net)を提案する。
In-pathの低レベル・高レベルな特徴とクロスパスの多解像度な特徴をフル活用して、多様なスケールのサルエントオブジェクトを識別し、散らかった背景を抑える。
ORSSDデータセットの実験により、提案したネットワークは定性的かつ定量的に最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T05:27:57Z) - Cross-Modal Weighting Network for RGB-D Salient Object Detection [76.0965123893641]
我々は,RGB-D SODの深度チャネルとRGB-D SODの包括的相互作用を促進するために,新しいクロスモーダルウェイトリング(CMW)戦略を提案する。
具体的には、CMW-L、CMW-M、CMW-Hという3つのRGB-depth相互作用モジュールが、それぞれ低レベル、中級、高レベルのクロスモーダル情報融合を扱うように開発されている。
CMWNetは、7つの人気のあるベンチマークで15の最先端のRGB-D SODメソッドを上回っている。
論文 参考訳(メタデータ) (2020-07-09T16:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。