論文の概要: CMA-Net: A Cascaded Mutual Attention Network for Light Field Salient
Object Detection
- arxiv url: http://arxiv.org/abs/2105.00949v1
- Date: Mon, 3 May 2021 15:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:59:56.886408
- Title: CMA-Net: A Cascaded Mutual Attention Network for Light Field Salient
Object Detection
- Title(参考訳): cma-net:光場サルエント物体検出のためのカスケード相互注意ネットワーク
- Authors: Yi Zhang, Lu Zhang, Wassim Hamidouche and Olivier Deforges
- Abstract要約: 本稿では,全焦点と深さのモダリティからハイレベルな特徴を浮き彫りにすることを目的とした2つの新しい相互注意モジュールからなるcma-netを提案する。
提案するcma-netは、広く適用された2つのライトフィールドベンチマークデータセットで30のsodメソッド(大きなマージン)を上回る。
- 参考スコア(独自算出の注目度): 17.943924748737622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the past few years, numerous deep learning methods have been proposed to
address the task of segmenting salient objects from RGB (all-in-focus) images.
However, these approaches depending on single modality fail to achieve the
state-of-the-art performance on widely used light field salient object
detection (SOD) datasets, which collect large-scale natural images and provide
multiple modalities such as multi-view, micro-lens images and depth maps. Most
recently proposed light field SOD methods have acquired improving detecting
accuracy, yet still predict rough objects' structures and perform slow
inference speed. To this end, we propose CMA-Net, which consists of two novel
cascaded mutual attention modules aiming at fusing the high level features from
the modalities of all-in-focus and depth. Our proposed CMA-Net outperforms 30
SOD methods (by a large margin) on two widely applied light field benchmark
datasets. Besides, the proposed CMA-Net can run at a speed of 53 fps, thus
being much faster than the state-of-the-art multi-modal SOD methods. Extensive
quantitative and qualitative experiments illustrate both the effectiveness and
efficiency of our CMA-Net, inspiring future development of multi-modal learning
for both the RGB-D and light field SOD.
- Abstract(参考訳): 近年,RGB(All-in-focus)画像から有能なオブジェクトを分割する作業に対処するために,多数のディープラーニング手法が提案されている。
しかし、これらのアプローチは、大規模な自然画像を収集し、マルチビュー、マイクロレンズ画像、深度マップなどの複数のモダリティを提供する広範に使われている光フィールドサリエント物体検出(SOD)データセットの最先端性能を達成するには至らなかった。
最近提案された光場SOD法は精度の向上を図りつつも、粗い物体の構造を予測し、速度を遅くする。
そこで本研究では,cma-netを提案する。cma-netは,全焦点と深さのモダリティからハイレベルな特徴を融合することを目的とした,2つの新しいカスケードされた相互注意モジュールである。
提案するcma-netは、広く適用された2つのライトフィールドベンチマークデータセットで30のsodメソッド(大きなマージン)を上回る。
さらに提案したCMA-Netは53fpsの速度で動作可能であるため、最先端のマルチモーダルSOD法よりもはるかに高速である。
広汎な定量的および定性的実験は、我々のCMA-Netの有効性と効率を実証し、RGB-Dおよび光場SODのためのマルチモーダル学習の今後の発展を促している。
関連論文リスト
- HiDAnet: RGB-D Salient Object Detection via Hierarchical Depth Awareness [2.341385717236931]
本稿では,RGB-Dサリエンシ検出のための階層的深度認識ネットワーク(HiDAnet)を提案する。
我々のモチベーションは、幾何学的先行の多粒性特性がニューラルネットワーク階層とよく相関しているという観察から来ています。
当社のHiDAnetは最先端の手法よりも大きなマージンで良好に動作します。
論文 参考訳(メタデータ) (2023-01-18T10:00:59Z) - A lightweight multi-scale context network for salient object detection
in optical remote sensing images [16.933770557853077]
光学RSIにおける有能な物体検出のためのマルチスケールコンテキストネットワークMSCNetを提案する。
具体的には、有能なオブジェクトのスケール変動に対処するために、マルチスケールコンテキスト抽出モジュールを採用する。
複雑な背景の完全正当性オブジェクトを正確に検出するために,注意に基づくピラミッド特徴集約機構を設計する。
論文 参考訳(メタデータ) (2022-05-18T14:32:47Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Depth-Cooperated Trimodal Network for Video Salient Object Detection [13.727763221832532]
我々はDCTNet(Deep-operated triOD network)を提案する。
この目的のために、まずRGBフレームから深度を生成し、次に3つのモダリティを不等に扱うアプローチを提案する。
また、各モードの雑音を抑えるための改良融合モジュール(RFM)を導入し、機能改善のために有用な情報を動的に選択する。
論文 参考訳(メタデータ) (2022-02-12T13:04:16Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Progressive Multi-scale Fusion Network for RGB-D Salient Object
Detection [9.099589602551575]
本稿では,いわゆるプログレッシブ・マルチスケール・フュージョン法の利点について論じ,マスク誘導型特徴集合モジュールを提案する。
提案フレームワークは,異なるモードの2つの特徴を効果的に組み合わせ,誤った深さ特徴の影響を軽減する。
さらに,マスク誘導型改良モジュール(MGRM)を導入し,高レベルの意味的特徴を補完し,マルチスケール融合から無関係な特徴を減らす。
論文 参考訳(メタデータ) (2021-06-07T20:02:39Z) - A Parallel Down-Up Fusion Network for Salient Object Detection in
Optical Remote Sensing Images [82.87122287748791]
光リモートセンシング画像(RSI)における有意な物体検出のための新しい並列ダウンアップフュージョンネットワーク(PDF-Net)を提案する。
In-pathの低レベル・高レベルな特徴とクロスパスの多解像度な特徴をフル活用して、多様なスケールのサルエントオブジェクトを識別し、散らかった背景を抑える。
ORSSDデータセットの実験により、提案したネットワークは定性的かつ定量的に最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T05:27:57Z) - Searching Multi-Rate and Multi-Modal Temporal Enhanced Networks for
Gesture Recognition [89.0152015268929]
RGB-Dジェスチャ認識のための最初のニューラルアーキテクチャサーチ(NAS)手法を提案する。
提案手法は,1)3次元中央差分畳畳み込み(3D-CDC)ファミリーによる時間的表現の強化,および多モードレート分岐と横方向接続のための最適化されたバックボーンを含む。
結果として得られたマルチレートネットワークは、RGBと深さ変調と時間力学の関係を理解するための新しい視点を提供する。
論文 参考訳(メタデータ) (2020-08-21T10:45:09Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z) - Multi-level Cross-modal Interaction Network for RGB-D Salient Object
Detection [3.581367375462018]
我々は,RGB-D を用いたサルエントオブジェクト検出(SOD)のためのMCINet(Multi-level Cross-modal Interaction Network)を提案する。
MCI-Netには2つの重要なコンポーネントがある: 1)RGB画像と深度キューの高レベルな特徴を学習するために使用されるクロスモーダルな特徴学習ネットワーク、2)SOD性能を高めるためにマルチレベルなクロスモーダル機能を統合するマルチレベルな対話型統合ネットワーク。
論文 参考訳(メタデータ) (2020-07-10T02:21:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。