論文の概要: BiconNet: An Edge-preserved Connectivity-based Approach for Salient
Object Detection
- arxiv url: http://arxiv.org/abs/2103.00334v1
- Date: Sat, 27 Feb 2021 21:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:07:40.658023
- Title: BiconNet: An Edge-preserved Connectivity-based Approach for Salient
Object Detection
- Title(参考訳): BiconNet: サリエントオブジェクト検出のためのエッジ保存型コネクティビティベースアプローチ
- Authors: Ziyun Yang, Somayyeh Soltanian-Zadeh, Sina Farsiu
- Abstract要約: 既存のSaliencyベースのSODフレームワークをバックボーンとして使用できることを示す。
5つのベンチマークデータセットの総合的な実験を通して,提案手法が最先端のSOD手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 3.3517146652431378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Salient object detection (SOD) is viewed as a pixel-wise saliency modeling
task by traditional deep learning-based methods. Although great progress has
been made, a challenge of modern SOD models is the insufficient utilization of
inter-pixel information, which usually results in imperfect segmentations near
the edge regions. As we demonstrate, using a saliency map as the network output
is a sub-optimal choice. To address this problem, we propose a
connectivity-based approach named bilateral connectivity network (BiconNet),
which uses a connectivity map instead of a saliency map as the network output
for effective modeling of inter-pixel relationships and object saliency.
Moreover, we propose a bilateral voting module to enhance the output
connectivity map and a novel edge feature enhancement method that efficiently
utilizes edge-specific features with negligible parameter increase. We show
that our model can use any existing saliency-based SOD framework as its
backbone. Through comprehensive experiments on five benchmark datasets, we
demonstrate that our proposed method outperforms state-of-the-art SOD
approaches.
- Abstract(参考訳): サリアントオブジェクト検出(SOD)は,従来の深層学習手法により,画素単位のサリアントモデリングタスクと見なされる。
大きな進歩を遂げていますが、現代のSODモデルの課題は、通常エッジ領域の近くで不完全なセグメンテーションをもたらすピクセル間情報の不十分な利用です。
示すように、ネットワーク出力としてサリエンシマップを使用することは、サブ最適選択です。
そこで本研究では, 相互接続ネットワーク (BiconNet) と呼ばれる接続方式を提案する。この手法は, サリエンシーマップではなくコネクティビティマップをネットワーク出力として用いて, ピクセル間関係とオブジェクトサリエンシーの効果的なモデリングを行う。
さらに、出力接続マップを強化する二国間投票モジュールと、無視可能なパラメータ増加を伴うエッジ固有の特徴を効率的に活用する新しいエッジ特徴強調手法を提案する。
既存のSaliencyベースのSODフレームワークをバックボーンとして使用できることを示す。
5つのベンチマークデータセットの総合的な実験を通して,提案手法が最先端のSOD手法より優れていることを示す。
関連論文リスト
- B2Net: Camouflaged Object Detection via Boundary Aware and Boundary Fusion [10.899493419708651]
得られた境界の精度を高めるために,B2Netという新しいネットワークを提案する。
我々は、より差別的な特徴表現を統合することを目的として、Residual Feature Enhanced Module (RFEM)を提案する。
その後、境界認識モジュール(BAM)を導入し、エッジキューを2回探索する。
最後に,さまざまなスケールの情報をトップダウンで統合するCBFMを設計する。
論文 参考訳(メタデータ) (2024-12-31T13:06:06Z) - Efficient Detection Framework Adaptation for Edge Computing: A Plug-and-play Neural Network Toolbox Enabling Edge Deployment [59.61554561979589]
エッジコンピューティングは、時間に敏感なシナリオでディープラーニングベースのオブジェクト検出をデプロイするための重要なパラダイムとして登場した。
既存のエッジ検出手法では、軽量モデルによる検出精度のバランスの難しさ、適応性の制限、現実の検証の不十分といった課題に直面している。
本稿では,汎用的なプラグイン・アンド・プレイコンポーネントを用いてエッジ環境にオブジェクト検出モデルを適用するエッジ検出ツールボックス(ED-TOOLBOX)を提案する。
論文 参考訳(メタデータ) (2024-12-24T07:28:10Z) - CCSPNet-Joint: Efficient Joint Training Method for Traffic Sign
Detection Under Extreme Conditions [3.6190463374643795]
CCSPNetはContextual TransformerとCNNをベースにした効率的な特徴抽出モジュールである。
データ効率と一般化を改善するための共同トレーニングモデルCCSPNet-Jointを提案する。
実験により,CCSPNetは極端条件下での交通標識検出において最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2023-09-13T12:00:33Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - Position-Aware Relation Learning for RGB-Thermal Salient Object
Detection [3.115635707192086]
我々は,Swin Transformerに基づくRGB-T SODのための位置認識型関係学習ネットワーク(PRLNet)を提案する。
PRLNetは、クラス内コンパクト性とクラス間分離を強化するために、ピクセル間の距離と方向の関係を探索する。
さらに、RGB-T SODのマルチスペクトル特徴表現を強化するために、純粋なトランスフォーマーエンコーダデコーダネットワークを構成する。
論文 参考訳(メタデータ) (2022-09-21T07:34:30Z) - Road detection via a dual-task network based on cross-layer graph fusion
modules [2.8197257696982287]
道路検出のためのデュアルタスクネットワーク(DTnet)と層間グラフ融合モジュール(CGM)を提案する。
CGMは複雑な特徴ストリームグラフによる層間融合効果を改善し、4つのグラフパターンを評価した。
論文 参考訳(メタデータ) (2022-08-17T07:16:55Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Densely Nested Top-Down Flows for Salient Object Detection [137.74130900326833]
本稿では,物体検出におけるトップダウンモデリングの役割を再考する。
密度の高いトップダウンフロー(DNTDF)ベースのフレームワークを設計する。
DNTDFのすべての段階において、高いレベルの特徴はプログレッシブ圧縮ショートカットパス(PCSP)を介して読み込まれる。
論文 参考訳(メタデータ) (2021-02-18T03:14:02Z) - Centralized Information Interaction for Salient Object Detection [68.8587064889475]
U字型構造は、多スケールの機能を効率的に組み合わせるサリエント物体検出に長けている。
本稿では,これらの接続を集中化することにより,相互に相互に情報交換を行うことができることを示す。
本手法は, ボトムアップ経路とトップダウン経路の接続を置換することにより, 既存のU字型サルエント物体検出手法と協調することができる。
論文 参考訳(メタデータ) (2020-12-21T12:42:06Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Saliency Enhancement using Gradient Domain Edges Merging [65.90255950853674]
本研究では,エッジとサリエンシマップをマージして,サリエンシマップの性能を向上させる手法を開発した。
これにより、DUT-OMRONデータセットの少なくとも3.4倍の平均的な改善により、エッジ(SEE)を使用したサリエンシ向上が提案された。
SEEアルゴリズムは前処理のためのSEE-Preと後処理のためのSEE-Postの2つの部分に分けられる。
論文 参考訳(メタデータ) (2020-02-11T14:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。