論文の概要: PAANet:Visual Perception based Four-stage Framework for Salient Object
Detection using High-order Contrast Operator
- arxiv url: http://arxiv.org/abs/2211.08724v1
- Date: Wed, 16 Nov 2022 07:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 16:26:28.669186
- Title: PAANet:Visual Perception based Four-stage Framework for Salient Object
Detection using High-order Contrast Operator
- Title(参考訳): paanet:高次コントラスト演算子を用いた物体検出のための視覚知覚に基づく4段階フレームワーク
- Authors: Yanbo Yuan, Hua Zhong, Haixiong Li, Xiao cheng, Linmei Xia
- Abstract要約: 本稿では,SOD(Salient Object Detection)のための4段階フレームワークを提案する。
最初の2段階は、一般的な特徴抽出(GFE)と特徴前処理(FP)からなるtextbfPre-textbfAttentive Processと一致している。
最終2段階は、満足度特徴抽出(SFE)と特徴集約(FA)を含むtextbfAttention プロセスに対応する。
- 参考スコア(独自算出の注目度): 5.147934362641464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is believed that human vision system (HVS) consists of pre-attentive
process and attention process when performing salient object detection (SOD).
Based on this fact, we propose a four-stage framework for SOD, in which the
first two stages match the \textbf{P}re-\textbf{A}ttentive process consisting
of general feature extraction (GFE) and feature preprocessing (FP), and the
last two stages are corresponding to \textbf{A}ttention process containing
saliency feature extraction (SFE) and the feature aggregation (FA), namely
\textbf{PAANet}. According to the pre-attentive process, the GFE stage applies
the fully-trained backbone and needs no further finetuning for different
datasets. This modification can greatly increase the training speed. The FP
stage plays the role of finetuning but works more efficiently because of its
simpler structure and fewer parameters. Moreover, in SFE stage we design for
saliency feature extraction a novel contrast operator, which works more
semantically in contrast with the traditional convolution operator when
extracting the interactive information between the foreground and its
surroundings. Interestingly, this contrast operator can be cascaded to form a
deeper structure and extract higher-order saliency more effective for complex
scene. Comparative experiments with the state-of-the-art methods on 5 datasets
demonstrate the effectiveness of our framework.
- Abstract(参考訳): 人間の視覚システム (HVS) は, サリアント物体検出 (SOD) を行う際の注意プロセスと注意プロセスからなると考えられている。
そこで本研究では,sodのための4段階のフレームワークを提案する。最初の2段階は一般特徴抽出 (gfe) と特徴前処理 (fp) からなる \textbf{p}re-\textbf{a}ttentive process と一致し,最後の2段階はsaliency feature extraction (sfe) を含む \textbf{a}ttention process (fa)、すなわち \textbf{paanet} に対応する。
事前のプロセスによると、gfeステージはフルトレーニングされたバックボーンを適用し、異なるデータセットの微調整は不要である。
この変更はトレーニング速度を大幅に向上させることができる。
FPステージは微調整の役割を果たすが、より単純な構造と少ないパラメータのためにより効率的に機能する。
さらに, sfe 段階では, 前景と周辺との対話情報を抽出する際に, 従来の畳み込み演算子とは対照的に, より意味的に機能する新しいコントラスト演算子の設計を行う。
興味深いことに、このコントラスト演算子はより深い構造を形成し、複雑なシーンをより効果的に高階の塩分を抽出するためにカスケードすることができる。
5つのデータセットの最先端手法との比較実験により,本フレームワークの有効性が示された。
関連論文リスト
- S^2Former-OR: Single-Stage Bimodal Transformer for Scene Graph
Generation in OR [52.964721233679406]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に、ポーズ推定とオブジェクト検出を伴う中間プロセスに依存するセマンティックシーングラフを生成する多段階学習に依存してきた。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGの単一段バイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Harnessing Diffusion Models for Visual Perception with Meta Prompts [68.78938846041767]
本稿では,視覚知覚タスクの拡散モデルを用いた簡易かつ効果的な手法を提案する。
学習可能な埋め込み(メタプロンプト)を事前学習した拡散モデルに導入し、知覚の適切な特徴を抽出する。
提案手法は,NYU 深度 V2 と KITTI の深度推定タスク,および CityScapes のセマンティックセグメンテーションタスクにおいて,新しい性能記録を実現する。
論文 参考訳(メタデータ) (2023-12-22T14:40:55Z) - PPEA-Depth: Progressive Parameter-Efficient Adaptation for
Self-Supervised Monocular Depth Estimation [24.68378829544394]
本稿では,自己教師付き深度推定のための事前学習画像モデルを転送するプログレッシブ適応手法であるPPEA-Depthを提案する。
トレーニングは2つのシーケンシャルステージで構成されている: データセット上でトレーニングされた初期フェーズは、主に静的シーンで構成され、より複雑なデータセットへの拡張によって後継される。
実験によると、PPEA-DepthはKITTI、CityScapes、DDADデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-20T14:45:57Z) - CONTRASTE: Supervised Contrastive Pre-training With Aspect-based Prompts
For Aspect Sentiment Triplet Extraction [13.077459544929598]
本稿では,ConTRastive Learning を用いた新しい事前学習戦略を提案する。
また,ACOS,TASD,AESCなどの他のABSAタスクに対して提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-10-24T07:40:09Z) - ComPtr: Towards Diverse Bi-source Dense Prediction Tasks via A Simple
yet General Complementary Transformer [91.43066633305662]
本稿では,多種多様な二ソース密度予測タスクのためのアンダーラインComPlementaryアンダーライン変換器textbfComPtrを提案する。
ComPtrは異なる入力を等しく扱い、変換器上にシーケンス・ツー・シーケンスの形で効率的な密な相互作用モデルを構築する。
論文 参考訳(メタデータ) (2023-07-23T15:17:45Z) - Transformer-based Context Condensation for Boosting Feature Pyramids in
Object Detection [77.50110439560152]
現在の物体検出器は、通常マルチレベル特徴融合(MFF)のための特徴ピラミッド(FP)モジュールを持つ。
我々は,既存のFPがより優れたMFF結果を提供するのに役立つ,新しい,効率的なコンテキストモデリング機構を提案する。
特に,包括的文脈を2種類の表現に分解・凝縮して高効率化を図っている。
論文 参考訳(メタデータ) (2022-07-14T01:45:03Z) - GaitStrip: Gait Recognition via Effective Strip-based Feature
Representations and Multi-Level Framework [34.397404430838286]
本稿では,様々なレベルの歩行情報を抽出するために,GaitStripという名前のストリップベースマルチレベル歩行認識ネットワークを提案する。
具体的には、私たちの高レベルブランチは歩行シーケンスのコンテキストを探求し、低レベルブランチは詳細な姿勢変化に焦点を当てています。
我々のGaitStripは、通常の歩行条件と複雑な歩行条件の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-03-08T09:49:48Z) - Real-Time Scene Text Detection with Differentiable Binarization and
Adaptive Scale Fusion [62.269219152425556]
セグメンテーションに基づくシーンテキスト検出手法はシーンテキスト検出分野において大きな注目を集めている。
本稿では,二項化処理をセグメンテーションネットワークに統合する分散二項化(DB)モジュールを提案する。
アダプティブ・スケール・フュージョン (ASF) モジュールは, 異なるスケールの特徴を適応的に融合させることにより, スケールのロバスト性を向上させる。
論文 参考訳(メタデータ) (2022-02-21T15:30:14Z) - Inter-class Discrepancy Alignment for Face Recognition [55.578063356210144]
IA(Inter-class DiscrepancyAlignment)という統合フレームワークを提案する。
IDA-DAOは、画像と隣人の相違を考慮した類似度スコアの整合に使用される。
IDA-SSEは、GANで生成された仮想候補画像を導入することで、説得力のあるクラス間隣人を提供できます。
論文 参考訳(メタデータ) (2021-03-02T08:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。