論文の概要: Bilateral Attention Network for RGB-D Salient Object Detection
- arxiv url: http://arxiv.org/abs/2004.14582v1
- Date: Thu, 30 Apr 2020 04:23:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 04:59:07.913210
- Title: Bilateral Attention Network for RGB-D Salient Object Detection
- Title(参考訳): RGB-D Salient Object Detectionのためのバイラテラルアテンションネットワーク
- Authors: Zhao Zhang, Zheng Lin, Jun Xu, Wenda Jin, Shao-Ping Lu, Deng-Ping Fan
- Abstract要約: 既存の RGB-D salient Object Detection (SOD) 法は、奥行き画像を利用する際に、前景領域に焦点を当てている。
本稿では,RGB-D SODタスクのためのバイラテラルアテンションネットワーク(BiANet)を提案する。
BiANetは、より意味のあるフォアグラウンドとバックグラウンドのキューをキャプチャし、フォアグラウンドとバックグラウンドの領域間の不確実な詳細を精査することにより注意を向ける。
- 参考スコア(独自算出の注目度): 41.35286426515511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing RGB-D salient object detection (SOD) methods focus on the
foreground region when utilizing the depth images. However, the background also
provides important information in traditional SOD methods for promising
performance. To better explore salient information in both foreground and
background regions, this paper proposes a Bilateral Attention Network (BiANet)
for the RGB-D SOD task. Specifically, we introduce a Bilateral Attention Module
(BAM) with a complementary attention mechanism: foreground-first (FF) attention
and background-first (BF) attention. The FF attention focuses on the foreground
region with a gradual refinement style, while the BF one recovers potentially
useful salient information in the background region. Benefitted from the
proposed BAM module, our BiANet can capture more meaningful foreground and
background cues, and shift more attention to refining the uncertain details
between foreground and background regions. Additionally, we extend our BAM by
leveraging the multi-scale techniques for better SOD performance. Extensive
experiments on six benchmark datasets demonstrate that our BiANet outperforms
other state-of-the-art RGB-D SOD methods in terms of objective metrics and
subjective visual comparison. Our BiANet can run up to 80fps on $224\times224$
RGB-D images, with an NVIDIA GeForce RTX 2080Ti GPU. Comprehensive ablation
studies also validate our contributions.
- Abstract(参考訳): 既存のrgb-d salient object detection (sod) 法のほとんどは、深度画像を利用する際に前景領域に焦点を当てている。
しかし、バックグラウンドはまた、パフォーマンスを約束する伝統的なsodメソッドの重要な情報を提供する。
本稿では,前景と背景領域の両方において有意な情報をよりよく探索するために,rgb-d sodタスクのためのバイラテラル・アテンション・ネットワーク(bianet)を提案する。
具体的には,前景第一注意(FF)と背景第一注意(BF)の相補的な注意機構を備えたバイラテラル注意モジュール(BAM)を導入する。
FF注意は、段階的な改善スタイルで前景領域に焦点を当て、BFは背景領域で潜在的に有用な唾液情報を復元する。
提案されたBAMモジュールに特化して、私たちのBiANetは、より意味のあるフォアグラウンドとバックグラウンドのキューをキャプチャし、フォアグラウンドとバックグラウンドの領域間の不確実な詳細の修正にもっと注意を向けることができます。
さらに,SODの性能向上のために,マルチスケール技術を活用してBAMを拡張した。
6つのベンチマークデータセットに対する大規模な実験により、我々のBiANetは他の最先端のRGB-D SODメソッドよりも客観的なメトリクスと主観的な視覚的比較の点で優れています。
当社のBiANetは、NVIDIA GeForce RTX 2080Ti GPUを搭載した、224\times224$ RGB-Dイメージで80fpsまで実行可能です。
包括的アブレーション研究も我々の貢献を検証する。
関連論文リスト
- Diffusion-based RGB-D Semantic Segmentation with Deformable Attention Transformer [10.982521876026281]
本稿では,RGB-Dセマンティックセグメンテーション問題に対処する拡散型フレームワークを提案する。
本研究では,デフォルマブルアテンション変換器をエンコーダとして利用し,奥行き画像から特徴を抽出することにより,デフォルマブルアテンション変換器の特性を効果的に把握できることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:23:01Z) - Multi-Scale Iterative Refinement Network for RGB-D Salient Object
Detection [7.062058947498447]
RGB画像の様々なスケールや解像度に、様々な特徴レベルの意味的ギャップがあるため、健全な視覚的手がかりが現れる。
同様のサージェントパターンは、クロスモーダルなディープイメージとマルチスケールバージョンで利用できる。
注意に基づく融合モジュール (ABF) を設計し, 相互相関に対処する。
論文 参考訳(メタデータ) (2022-01-24T10:33:00Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - FEANet: Feature-Enhanced Attention Network for RGB-Thermal Real-time
Semantic Segmentation [19.265576529259647]
RGB-Tセマンティックセマンティックセグメンテーションタスクのための2段階機能拡張アテンションネットワーク(FEANet)を提案する。
具体的には、チャネルビューと空間ビューの両方からマルチレベル特徴を発掘・拡張するための機能拡張注意モジュール(FEAM)を導入する。
提案する FEAM モジュールに特化して,FEANet は空間情報を保存し,融合した RGB-T 画像から高分解能な特徴に注目する。
論文 参考訳(メタデータ) (2021-10-18T02:43:41Z) - RGB-D Salient Object Detection with Ubiquitous Target Awareness [37.6726410843724]
我々は、新しい深度認識フレームワークを用いて、RGB-D有向物体検出問題を解くための最初の試みを行う。
本稿では,RGB-D SODタスクにおける3つの課題を解決するために,ユビキタスターゲット意識(UTA)ネットワークを提案する。
提案するUTAネットワークは深度フリーで,43FPSでリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2021-09-08T04:27:29Z) - Dense Attention Fluid Network for Salient Object Detection in Optical
Remote Sensing Images [193.77450545067967]
光リモートセンシング画像(RSI)における有意物体検出のためのエンド・ツー・エンドDense Attention Fluid Network(DAFNet)を提案する。
GCA(Global Context-Aware Attention)モジュールは、長距離の意味的関係を適応的にキャプチャするために提案される。
我々は、2000枚の画像とピクセルワイドなサリエンシアノテーションを含むSODのための新しい、挑戦的な光学RSIデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-26T06:14:10Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Cascade Graph Neural Networks for RGB-D Salient Object Detection [41.57218490671026]
色情報と深度情報の両方を用いて,RGB-D画像に対する正当性物体検出(SOD)の問題点を考察する。
この2つのデータソース間の相互利益を総合的に蒸留し推論できる統合フレームワークであるCascade Graph Neural Networks(Cas-Gnn)を紹介する。
Cas-Gnnは、いくつかの広く使用されているベンチマークにおいて、既存のRGB-DSODアプローチよりも大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2020-08-07T10:59:04Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。