論文の概要: EDN: Salient Object Detection via Extremely-Downsampled Network
- arxiv url: http://arxiv.org/abs/2012.13093v1
- Date: Thu, 24 Dec 2020 04:23:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 08:17:31.690505
- Title: EDN: Salient Object Detection via Extremely-Downsampled Network
- Title(参考訳): EDN:極端にバラバラなネットワークによる有能な物体検出
- Authors: Yu-Huan Wu, Yun Liu, Le Zhang, Ming-Ming Cheng
- Abstract要約: 画像全体のグローバルビューを効果的に学ぶために、極端なダウンサンプリング技術を使用するExtremely-Downsampled Network(EDN)を紹介します。
実験は、ednがリアルタイム速度でsart性能を達成することを実証する。
- 参考スコア(独自算出の注目度): 66.38046176176017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent progress on salient object detection (SOD) mainly benefits from
multi-scale learning, where the high-level and low-level features work
collaboratively in locating salient objects and discovering fine details,
respectively. However, most efforts are devoted to low-level feature learning
by fusing multi-scale features or enhancing boundary representations. In this
paper, we show another direction that improving high-level feature learning is
essential for SOD as well. To verify this, we introduce an
Extremely-Downsampled Network (EDN), which employs an extreme downsampling
technique to effectively learn a global view of the whole image, leading to
accurate salient object localization. A novel Scale-Correlated Pyramid
Convolution (SCPC) is also designed to build an elegant decoder for recovering
object details from the above extreme downsampling. Extensive experiments
demonstrate that EDN achieves \sArt performance with real-time speed. Hence,
this work is expected to spark some new thinking in SOD. The code will be
released.
- Abstract(参考訳): 近年のサルエント物体検出(SOD)の進歩は主にマルチスケール学習の恩恵を受けており、高レベルの特徴と低レベルの特徴がそれぞれサルエント物体の探索と詳細発見に協力して機能している。
しかしながら、ほとんどの努力は、マルチスケール特徴の融合や境界表現の強化によって、低レベルの特徴学習に費やされている。
本稿では,sodにおいても高レベル機能学習の改善が不可欠であることを示す。
そこで本研究では,画像全体のグローバルビューを効果的に学習するために,極端にダウンサンプリング技術を用いた極端にダウンサンプリングされたネットワーク(edn)を導入する。
SCPC(Scale-Correlated Pyramid Convolution)は、上述の極端なダウンサンプリングからオブジェクトの詳細を復元するエレガントなデコーダを構築するように設計されている。
大規模な実験により、EDNはリアルタイムの速度で \sArt のパフォーマンスを達成することが示された。
そのため、この研究はSODに新たな思考を巻き起こすことが期待されている。
コードはリリースされます。
関連論文リスト
- Adaptive Guidance Learning for Camouflaged Object Detection [23.777432551429396]
本稿では,適応型誘導学習ネットワーク「textitAGLNet」を提案する。
広く使用されている3つのCODベンチマークデータセットの実験により,提案手法が大幅な性能向上を実現することが示された。
論文 参考訳(メタデータ) (2024-05-05T06:21:58Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Learning Object-level Point Augmentor for Semi-supervised 3D Object
Detection [85.170578641966]
半教師付き3次元オブジェクト検出のための局所変換を行うオブジェクトレベルポイント拡張器(OPA)を提案する。
このようにして、結果のオーグメンタは、無関係なバックグラウンドではなく、オブジェクトインスタンスを強調するように導出されます。
ScanNetとSUN RGB-Dデータセットの実験は、提案したOPAが最先端の手法に対して好適に動作することを示している。
論文 参考訳(メタデータ) (2022-12-19T06:56:14Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Densely Nested Top-Down Flows for Salient Object Detection [137.74130900326833]
本稿では,物体検出におけるトップダウンモデリングの役割を再考する。
密度の高いトップダウンフロー(DNTDF)ベースのフレームワークを設計する。
DNTDFのすべての段階において、高いレベルの特徴はプログレッシブ圧縮ショートカットパス(PCSP)を介して読み込まれる。
論文 参考訳(メタデータ) (2021-02-18T03:14:02Z) - Dense Multiscale Feature Fusion Pyramid Networks for Object Detection in
UAV-Captured Images [0.09065034043031667]
本研究では,よりリッチな特徴を可能な限り得ることを目的とした,高密度多スケール特徴融合ピラミッドネットワーク(dmffpn)と呼ばれる新しい手法を提案する。
具体的には、密度の高い接続は、異なる畳み込み層からの表現を完全に活用するように設計されている。
VisDrone-DETと呼ばれるドローンベースのデータセットの実験は、我々の方法の競争力を示唆している。
論文 参考訳(メタデータ) (2020-12-19T10:05:31Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。