論文の概要: DC-Net: Divide-and-Conquer for Salient Object Detection
- arxiv url: http://arxiv.org/abs/2305.14955v2
- Date: Mon, 5 Jun 2023 04:15:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 01:01:59.695205
- Title: DC-Net: Divide-and-Conquer for Salient Object Detection
- Title(参考訳): dc-net: サルエント物体検出のための分割・変換
- Authors: Jiayi Zhu, Xuebin Qin, Abdulmotaleb Elsaddik
- Abstract要約: そこで本研究では,Divide-and-ConquerをSalient Object Detection (SOD)タスクに導入し,Saliency Mapを予測するための事前知識をモデルが学習できるようにする。
我々は,2つのエンコーダを用いて,最終的なサリエンシマップを予測するための異なるサブタスクを解く新しいネットワークであるDivide-and-Conquer Network(DC-Net)を設計する。
- 参考スコア(独自算出の注目度): 8.085704696321667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce Divide-and-Conquer into the salient object
detection (SOD) task to enable the model to learn prior knowledge that is for
predicting the saliency map. We design a novel network, Divide-and-Conquer
Network (DC-Net) which uses two encoders to solve different subtasks that are
conducive to predicting the final saliency map, here is to predict the edge
maps with width 4 and location maps of salient objects and then aggregate the
feature maps with different semantic information into the decoder to predict
the final saliency map. The decoder of DC-Net consists of our newly designed
two-level Residual nested-ASPP (ResASPP$^{2}$) modules, which have the ability
to capture a large number of different scale features with a small number of
convolution operations and have the advantages of maintaining high resolution
all the time and being able to obtain a large and compact effective receptive
field (ERF). Based on the advantage of Divide-and-Conquer's parallel computing,
we use Parallel Acceleration to speed up DC-Net, allowing it to achieve
competitive performance on six LR-SOD and five HR-SOD datasets under high
efficiency (60 FPS and 55 FPS). Codes and results are available:
https://github.com/PiggyJerry/DC-Net.
- Abstract(参考訳): 本稿では,有意なオブジェクト検出(SOD)タスクにDivide-and-Conquerを導入し,そのモデルが有意性マップを予測するための事前知識を学習できるようにする。
そこで本研究では,2つのエンコーダを用いて最終給与マップを予測可能な異なるサブタスクを解く,新たなネットワークdc-netを設計し,エッジマップを幅4とサルエントオブジェクトの位置マップで予測し,特徴マップをデコーダに集約して最終給与マップを予測した。
DC-Netのデコーダは、新しく設計された2段階のResidual nested-ASPP(ResASPP$^{2}$)モジュールで構成されており、多数のコンボリューション操作で多数の異なる特徴をキャプチャでき、高解像度を常に維持でき、大かつコンパクトな有効受容場(ERF)を得ることができるという利点がある。
並列計算の利点を活かして,dc-netの高速化に並列加速度を応用し,高効率(60 fps,55 fps)で6つのlr-sodと5つのhr-sodデータセットの競合性能を実現する。
コードと結果は、https://github.com/PiggyJerry/DC-Net.comで公開されている。
関連論文リスト
- Diffusion-based Data Augmentation for Object Counting Problems [62.63346162144445]
拡散モデルを用いて広範なトレーニングデータを生成するパイプラインを開発する。
拡散モデルを用いて位置ドットマップ上に条件付き画像を生成するのはこれが初めてである。
提案した拡散モデルにおけるカウント損失は,位置ドットマップと生成した群集画像との差を効果的に最小化する。
論文 参考訳(メタデータ) (2024-01-25T07:28:22Z) - Dual-stream Network for Visual Recognition [26.23838019591146]
本稿では、画像分類のための局所的およびグローバルなパターン特徴の表現能力を探索する汎用Dual-stream Network(DS-Net)を提案する。
我々のDS-Netは、細粒度と統合された機能を同時に計算し、それらを効率的に融合させることができる。
論文 参考訳(メタデータ) (2021-05-31T06:56:29Z) - SRH-Net: Stacked Recurrent Hourglass Network for Stereo Matching [33.66537830990198]
本研究では,3次元畳み込みフィルタで用いる4次元立方体体積を相違点方向の逐次コストマップに分解する。
新たなリカレントモジュールであるスタックド・リカレント・ホアーグラス(SRH)が,各コストマップの処理のために提案されている。
提案アーキテクチャはエンドツーエンドのパイプラインで実装され、パブリックデータセットで評価される。
論文 参考訳(メタデータ) (2021-05-25T00:10:56Z) - Dense Dual-Path Network for Real-time Semantic Segmentation [7.8381744043673045]
本稿では,資源制約下でのリアルタイムセマンティックセグメンテーションのための新しいDual-Path Network(DDPNet)を提案する。
DDPNetは、GTX 1080Tiカードの1024 X 2048解像度の入力に対して52.6 FPSで75.3% mIoUを達成した。
論文 参考訳(メタデータ) (2020-10-21T06:11:41Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - MSDPN: Monocular Depth Prediction with Partial Laser Observation using
Multi-stage Neural Networks [1.1602089225841632]
深層学習に基づくマルチステージネットワークアーキテクチャであるMulti-Stage Depth Prediction Network (MSDPN)を提案する。
MSDPNは2次元LiDARと単眼カメラを用いて深度マップを予測する。
実験により,本ネットワークは最先端手法に対して有望な性能を示す。
論文 参考訳(メタデータ) (2020-08-04T08:27:40Z) - Suppress and Balance: A Simple Gated Network for Salient Object
Detection [89.88222217065858]
両問題を同時に解くための単純なゲートネットワーク(GateNet)を提案する。
多レベルゲートユニットの助けを借りて、エンコーダからの貴重なコンテキスト情報をデコーダに最適に送信することができる。
さらに,提案したFold-ASPP操作(Fold-ASPP)に基づくアトラス空間ピラミッドプーリングを用いて,様々なスケールのサリアンオブジェクトを正確に位置決めする。
論文 参考訳(メタデータ) (2020-07-16T02:00:53Z) - Dynamic Region-Aware Convolution [85.20099799084026]
本稿では,複数のフィルタを対応する空間領域に自動的に割り当てる動的領域認識畳み込み(DRConv)を提案する。
ImageNet分類において、DRConvベースのShuffleNetV2-0.5xは6.3%の相対的な改善と46M乗算加算レベルで67.1%の最先端性能を達成する。
論文 参考訳(メタデータ) (2020-03-27T05:49:57Z) - Encoder-Decoder Based Convolutional Neural Networks with
Multi-Scale-Aware Modules for Crowd Counting [6.893512627479196]
正確かつ効率的な群集カウントのための2つの修正ニューラルネットワークを提案する。
最初のモデルはM-SFANetと名付けられ、アラス空間ピラミッドプール(ASPP)とコンテキスト認識モジュール(CAN)が付属している。
第2のモデルはM-SegNetと呼ばれ、SFANetの双線形アップサンプリングをSegNetで使用される最大アンプールに置き換えることで生成される。
論文 参考訳(メタデータ) (2020-03-12T03:00:26Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - Convolutional Networks with Dense Connectivity [59.30634544498946]
Dense Convolutional Network (DenseNet)を導入し、フィードフォワード方式で各レイヤを他のすべてのレイヤに接続する。
各レイヤについて、先行するすべてのレイヤのフィーチャーマップをインプットとして使用し、それ自身のフィーチャーマップをその後のすべてのレイヤへのインプットとして使用します。
提案したアーキテクチャを、4つの高度に競争力のあるオブジェクト認識ベンチマークタスクで評価する。
論文 参考訳(メタデータ) (2020-01-08T06:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。