論文の概要: Guided Focal Stack Refinement Network for Light Field Salient Object
Detection
- arxiv url: http://arxiv.org/abs/2305.05260v1
- Date: Tue, 9 May 2023 08:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 13:27:17.522799
- Title: Guided Focal Stack Refinement Network for Light Field Salient Object
Detection
- Title(参考訳): 光電場能動物体検出のためのガイド付き頭蓋状リファインメントネットワーク
- Authors: Bo Yuan, Yao Jiang, Keren Fu, Qijun Zhao
- Abstract要約: 光フィールド・サリエント・オブジェクト検出(SOD)は、光フィールドデータの豊かさに起因する新たな研究方向である。
本稿では,マルチモーダルな特徴を利用して焦点スタックをガイド的に洗練し,新たな焦点スタック改善ネットワークであるGFRNetを提案する。
4つのベンチマークデータセットの実験結果は、GFRNetモデルが12の最先端モデルに対して優れていることを示している。
- 参考スコア(独自算出の注目度): 20.42257631830276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light field salient object detection (SOD) is an emerging research direction
attributed to the richness of light field data. However, most existing methods
lack effective handling of focal stacks, therefore making the latter involved
in a lot of interfering information and degrade the performance of SOD. To
address this limitation, we propose to utilize multi-modal features to refine
focal stacks in a guided manner, resulting in a novel guided focal stack
refinement network called GFRNet. To this end, we propose a guided refinement
and fusion module (GRFM) to refine focal stacks and aggregate multi-modal
features. In GRFM, all-in-focus (AiF) and depth modalities are utilized to
refine focal stacks separately, leading to two novel sub-modules for different
modalities, namely AiF-based refinement module (ARM) and depth-based refinement
module (DRM). Such refinement modules enhance structural and positional
information of salient objects in focal stacks, and are able to improve SOD
accuracy. Experimental results on four benchmark datasets demonstrate the
superiority of our GFRNet model against 12 state-of-the-art models.
- Abstract(参考訳): 光フィールドサリエント物体検出(SOD)は、光フィールドデータの豊かさに起因する新たな研究方向である。
しかし、既存のほとんどの手法はフォーカススタックの効果的な処理を欠いているため、後者は情報干渉とSODの性能の劣化に関与している。
この制限に対処するために,マルチモーダル機能を利用して焦点スタックを誘導的に洗練し,gfrnetと呼ばれる新しい誘導焦点スタックリファインメントネットワークを提案する。
そこで本稿では,焦点スタックを改良し,マルチモーダルな特徴を集約するGRFM ( Guided refinement and fusion Module) を提案する。
GRFMでは、All-in-focus (AiF) とdeep modalities が焦点スタックを別々に洗練するために使われ、AiF-based refinement module (ARM) とdeep-based refinement module (DRM) の2つの新しいサブモジュールが生まれた。
このような改良モジュールは、焦点スタック内の有向物体の構造的および位置的情報を高め、SOD精度を向上させることができる。
4つのベンチマークデータセットの実験結果は、GFRNetモデルが12の最先端モデルに対して優れていることを示している。
関連論文リスト
- Multi-Scale Direction-Aware Network for Infrared Small Target Detection [2.661766509317245]
赤外小目標検出は、背景とターゲットを効果的に分離することが難しい問題に直面している。
我々は、赤外線小ターゲットの高周波方向特徴を統合するためのマルチスケール方向対応ネットワーク(MSDA-Net)を提案する。
MSDA-Netは、パブリックNUDT-SIRST、SIRST、IRSTD-1kデータセット上で、最先端(SOTA)結果を達成する。
論文 参考訳(メタデータ) (2024-06-04T07:23:09Z) - Multi-view Aggregation Network for Dichotomous Image Segmentation [76.75904424539543]
Dichotomous Image (DIS) は近年,高解像度自然画像からの高精度物体分割に向けて出現している。
既存の手法は、グローバルなローカライゼーションと局所的な洗練を徐々に完了させるために、退屈な複数のエンコーダ・デコーダストリームとステージに依存している。
これに触発されて、我々は多視点オブジェクト認識問題としてdisをモデル化し、擬似多視点アグリゲーションネットワーク(MVANet)を提供する。
一般的なdis-5Kデータセットの実験では、我々のMVANetは精度と速度の両方で最先端の手法を大きく上回っている。
論文 参考訳(メタデータ) (2024-04-11T03:00:00Z) - Depth-Cooperated Trimodal Network for Video Salient Object Detection [13.727763221832532]
我々はDCTNet(Deep-operated triOD network)を提案する。
この目的のために、まずRGBフレームから深度を生成し、次に3つのモダリティを不等に扱うアプローチを提案する。
また、各モードの雑音を抑えるための改良融合モジュール(RFM)を導入し、機能改善のために有用な情報を動的に選択する。
論文 参考訳(メタデータ) (2022-02-12T13:04:16Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Progressive Multi-scale Fusion Network for RGB-D Salient Object
Detection [9.099589602551575]
本稿では,いわゆるプログレッシブ・マルチスケール・フュージョン法の利点について論じ,マスク誘導型特徴集合モジュールを提案する。
提案フレームワークは,異なるモードの2つの特徴を効果的に組み合わせ,誤った深さ特徴の影響を軽減する。
さらに,マスク誘導型改良モジュール(MGRM)を導入し,高レベルの意味的特徴を補完し,マルチスケール融合から無関係な特徴を減らす。
論文 参考訳(メタデータ) (2021-06-07T20:02:39Z) - Middle-level Fusion for Lightweight RGB-D Salient Object Detection [81.43951906434175]
本稿では,新しい軽量RGB-D SODモデルについて述べる。
中層核融合構造に IMFF および L モジュールが組み込まれているため,提案モデルは3.9M のパラメータしか持たず,33 FPS で動作する。
いくつかのベンチマークデータセットによる実験結果から,提案手法の有効性と優位性を検証した。
論文 参考訳(メタデータ) (2021-04-23T11:37:15Z) - Dynamic Fusion Network For Light Field Depth Estimation [32.64928379844675]
本稿では,RGBデータと焦点スタックをフレームワークに組み込んだ動的マルチモーダル学習戦略を提案する。
提案手法の成功は,2つのデータセット上でのアートパフォーマンスの達成によって実証される。
論文 参考訳(メタデータ) (2021-04-13T06:45:11Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Dense Attention Fluid Network for Salient Object Detection in Optical
Remote Sensing Images [193.77450545067967]
光リモートセンシング画像(RSI)における有意物体検出のためのエンド・ツー・エンドDense Attention Fluid Network(DAFNet)を提案する。
GCA(Global Context-Aware Attention)モジュールは、長距離の意味的関係を適応的にキャプチャするために提案される。
我々は、2000枚の画像とピクセルワイドなサリエンシアノテーションを含むSODのための新しい、挑戦的な光学RSIデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-26T06:14:10Z) - MFIF-GAN: A New Generative Adversarial Network for Multi-Focus Image
Fusion [29.405149234582623]
マルチフォーカス画像融合(MFIF)は、オールインフォーカス画像を得るための有望な技術である。
MFIFの研究動向の1つは、フォーカス/デフォーカス境界(FDB)周辺のデフォーカス拡散効果(DSE)を回避することである。
我々は,MFIF-GANと呼ばれるネットワークを用いて,前景領域が対応する対象よりも正確に大きいフォーカスマップを生成する。
論文 参考訳(メタデータ) (2020-09-21T09:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。