論文の概要: Salient Object Detection via Integrity Learning
- arxiv url: http://arxiv.org/abs/2101.07663v3
- Date: Sun, 21 Feb 2021 07:01:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 01:34:43.024725
- Title: Salient Object Detection via Integrity Learning
- Title(参考訳): 積分学習による有能な物体検出
- Authors: Mingchen Zhuge, Deng-Ping Fan, Nian Liu, Dingwen Zhang, Dong Xu, and
Ling Shao
- Abstract要約: 整合性とは、ある有能な対象に属するすべての部分を強調する概念である。
ICON(Inteinity Cognition Network)の設計により,高感度物体検出のための整合性学習を容易にする。
ICONは3つの重要なコンポーネントを探索し、強力な整合性機能を学びます。
- 参考スコア(独自算出の注目度): 104.13483971954233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Albeit current salient object detection (SOD) works have achieved fantastic
progress, they are cast into the shade when it comes to the integrity of the
predicted salient regions. We define the concept of integrity at both the micro
and macro level. Specifically, at the micro level, the model should highlight
all parts that belong to a certain salient object, while at the macro level,
the model needs to discover all salient objects from the given image scene. To
facilitate integrity learning for salient object detection, we design a novel
Integrity Cognition Network (ICON), which explores three important components
to learn strong integrity features. 1) Unlike the existing models that focus
more on feature discriminability, we introduce a diverse feature aggregation
(DFA) component to aggregate features with various receptive fields (i.e.,,
kernel shape and context) and increase the feature diversity. Such diversity is
the foundation for mining the integral salient objects. 2) Based on the DFA
features, we introduce the integrity channel enhancement (ICE) component with
the goal of enhancing feature channels that highlight the integral salient
objects at the macro level, while suppressing the other distracting ones. 3)
After extracting the enhanced features, the part-whole verification (PWV)
method is employed to determine whether the part and whole object features have
strong agreement. Such part-whole agreements can further improve the
micro-level integrity for each salient object. To demonstrate the effectiveness
of ICON, comprehensive experiments are conducted on seven challenging
benchmarks, where promising results are achieved.
- Abstract(参考訳): 現行の正当性物体検出(SOD)は驚くべき進歩を遂げているが、予測された正当性領域の整合性に関しては影に映し出される。
マイクロレベルとマクロレベルの両方で整合性の概念を定義します。
特にマイクロレベルでは、マクロレベルでは、モデルが与えられたイメージシーンからすべての有能なオブジェクトを発見する必要があるが、特定の有能なオブジェクトに属する全ての部分を強調する必要がある。
健全な物体検出のための整合性学習を容易にするため、我々は3つの重要な要素を探索し、強健な整合性特徴を学習する新しい積分認知ネットワーク(ICON)を設計する。
1) 特徴の識別性を重視する既存のモデルとは異なり,様々な受容領域(カーネル形状やコンテキストなど)で特徴を集約し,特徴の多様性を高めるために,多彩な特徴集約(dfa)コンポーネントを導入する。
このような多様性は、積分サルエント天体の採掘の基礎である。
2) DFA の特徴に基づき,マクロレベルでの健全なオブジェクトを強調表示する機能チャネルの強化と,他の注意をそらすものを抑制することを目的とした整合性チャネル拡張 (ICE) コンポーネントを導入する。
3) 拡張特徴を抽出した後, 部分検証 (pwv) 法を用いて, 部分と対象特徴が強い一致を持つか否かを判定する。
このような部分的な合意は、それぞれの有能なオブジェクトに対するマイクロレベルの整合性をさらに改善することができる。
ICONの有効性を示すため、7つの挑戦的なベンチマークで総合的な実験を行い、有望な結果が得られた。
関連論文リスト
- BFA-YOLO: A balanced multiscale object detection network for building façade attachments detection [24.100350794625882]
本研究では,BFA-YOLOモデルとBFA-3Dデータセットを開発した。
BFA-YOLOモデルは、ファサードアタッチメントのマルチビュー画像の分析に特化して設計された高度なアーキテクチャである。
BFA-YOLOは、BFA-3DデータセットとパブリックなFacade-WHUデータセットにおいて、mAP$_50$で1.8%と2.9%の改善を示した。
論文 参考訳(メタデータ) (2024-09-06T04:44:52Z) - PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Learning Spatial-Semantic Features for Robust Video Object Segmentation [108.045326229865]
空間意味的特徴と識別的オブジェクトクエリを備えたロバストなビデオオブジェクトセグメンテーションフレームワークを提案する。
提案手法は,複数のデータセットに対して新しい最先端性能を設定できることを示す。
論文 参考訳(メタデータ) (2024-07-10T15:36:00Z) - Position-Aware Contrastive Alignment for Referring Image Segmentation [65.16214741785633]
マルチモーダル特徴のアライメントを強化するために,位置認識型コントラストアライメントネットワーク(PCAN)を提案する。
1)自然言語記述に関連するすべてのオブジェクトの位置情報を提供する位置認識モジュール(PAM)と,2)マルチモーダルアライメントを強化するコントラスト言語理解モジュール(CLUM)の2つのモジュールで構成されている。
論文 参考訳(メタデータ) (2022-12-27T09:13:19Z) - Multistep feature aggregation framework for salient object detection [0.0]
本稿では,有能な物体検出のための多段階特徴集約フレームワークを提案する。
Diverse Reception (DR) モジュール、Multiscale Interaction (MSI) モジュール、Feature Enhancement (FE) モジュールの3つのモジュールで構成されている。
6つのベンチマークデータセットの実験結果は、MSFAが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2022-11-12T16:13:16Z) - Perception-and-Regulation Network for Salient Object Detection [8.026227647732792]
本稿では,特徴間の相互依存性を明示的にモデル化し,特徴融合プロセスを適応的に制御する新しいグローバルアテンションユニットを提案する。
知覚部は、分類網内の完全に接続された層の構造を用いて、物体のサイズと形状を学習する。
さらに、ネットワークのグローバルな認識能力向上のために、模倣眼観察モジュール(IEO)が使用される。
論文 参考訳(メタデータ) (2021-07-27T02:38:40Z) - Towards Accurate Camouflaged Object Detection with Mixture Convolution and Interactive Fusion [45.45231015502287]
本稿では,大規模な受容場と効果的な特徴融合を統合されたフレームワークに統合する,新しい深層学習型COD手法を提案する。
提案手法は,大規模な受容場からのリッチなコンテキスト情報を集約する,効果的な融合戦略により,カモフラージュされた物体を検出する。
論文 参考訳(メタデータ) (2021-01-14T16:06:08Z) - Multi-Granularity Reference-Aided Attentive Feature Aggregation for
Video-based Person Re-identification [98.7585431239291]
ビデオベースの人物再識別は、同じ人物をビデオクリップ間でマッチングすることを目的としている。
本稿では,マルチグラニュラリティ参照属性集約モジュールMG-RAFAを提案する。
本フレームワークは,3つのベンチマークデータセット上での最先端のアブレーション性能を実現する。
論文 参考訳(メタデータ) (2020-03-27T03:49:21Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。