論文の概要: TRACER: Extreme Attention Guided Salient Object Tracing Network
- arxiv url: http://arxiv.org/abs/2112.07380v1
- Date: Tue, 14 Dec 2021 13:20:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 16:01:27.757236
- Title: TRACER: Extreme Attention Guided Salient Object Tracing Network
- Title(参考訳): TRACER: 極端に注意を向けた有能な物体追跡ネットワーク
- Authors: Min Seok Lee, WooSeok Shin, and Sung Won Han
- Abstract要約: 本稿では,注意誘導型トレーシングモジュールを組み込んで,鮮明なエッジで有意な物体を検出するTRACERを提案する。
13の既存手法との比較により、TRACERは5つのベンチマークデータセットで最先端のパフォーマンスを達成することが明らかになった。
- 参考スコア(独自算出の注目度): 3.2434811678562676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing studies on salient object detection (SOD) focus on extracting
distinct objects with edge information and aggregating multi-level features to
improve SOD performance. To achieve satisfactory performance, the methods
employ refined edge information and low multi-level discrepancy. However, both
performance gain and computational efficiency cannot be attained, which has
motivated us to study the inefficiencies in existing encoder-decoder structures
to avoid this trade-off. We propose TRACER, which detects salient objects with
explicit edges by incorporating attention guided tracing modules. We employ a
masked edge attention module at the end of the first encoder using a fast
Fourier transform to propagate the refined edge information to the downstream
feature extraction. In the multi-level aggregation phase, the union attention
module identifies the complementary channel and important spatial information.
To improve the decoder performance and computational efficiency, we minimize
the decoder block usage with object attention module. This module extracts
undetected objects and edge information from refined channels and spatial
representations. Subsequently, we propose an adaptive pixel intensity loss
function to deal with the relatively important pixels unlike conventional loss
functions which treat all pixels equally. A comparison with 13 existing methods
reveals that TRACER achieves state-of-the-art performance on five benchmark
datasets. In particular, TRACER-Efficient3 (TE3) outperforms LDF, an existing
method while requiring 1.8x fewer learning parameters and less time; TE3 is 5x
faster.
- Abstract(参考訳): salient object detection(sod)に関するこれまでの研究は、エッジ情報による異なるオブジェクトの抽出と、sodパフォーマンスを改善するためにマルチレベル機能を集約することに焦点を当てている。
良好な性能を達成するため、改良されたエッジ情報と低マルチレベル不一致を用いる。
しかし、性能向上と計算効率の両面で達成できないため、既存のエンコーダ・デコーダ構造の非効率性について研究する動機となった。
本稿では,注意誘導型トレーシングモジュールを組み込んで,鮮明なエッジで有意な物体を検出するTRACERを提案する。
高速フーリエ変換を用いて,第1エンコーダの終端にマスク付きエッジアテンションモジュールを用いて,改良されたエッジ情報を下流特徴抽出に伝達する。
多レベルアグリゲーションフェーズでは、ユニオンアテンションモジュールは補完チャネルと重要な空間情報を特定する。
デコーダの性能と計算効率を向上させるため、オブジェクトアテンションモジュールによるデコーダブロックの使用を最小化する。
このモジュールは、洗練されたチャネルと空間表現から未検出のオブジェクトとエッジ情報を抽出する。
次に,全ての画素を等しく扱う従来の損失関数とは異なり,比較的重要な画素を扱う適応画素強度損失関数を提案する。
既存の13のメソッドと比較すると、トレーサは5つのベンチマークデータセットで最先端のパフォーマンスを達成している。
特に TRACER-Efficient3 (TE3) は LDF よりも優れており、既存のメソッドでは 1.8 倍の学習パラメータと時間の短縮が必要であり、TE3 は 5 倍高速である。
関連論文リスト
- EffiPerception: an Efficient Framework for Various Perception Tasks [6.1522068855729755]
EffiPerceptionは、一般的な学習パターンを探求し、モジュールを増やすためのフレームワークである。
複数の知覚タスクにおいて比較的低いメモリコストで、高い精度のロバスト性を実現することができる。
EffiPerceptionは4つの検出およびセグメンテーションタスクにおいて、精度-メモリ全体のパフォーマンスが大幅に向上する可能性がある。
論文 参考訳(メタデータ) (2024-03-18T23:22:37Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - CE-FPN: Enhancing Channel Information for Object Detection [12.954675966833372]
特徴ピラミッドネットワーク(FPN)は,オブジェクト検出におけるマルチスケール特徴の抽出に有効なフレームワークである。
3つのシンプルで効果的なモジュールを備えた新しいチャネル強化ネットワーク(CE-FPN)を提示し、これらの問題を軽減します。
実験の結果, CE-FPNはMS COCOベンチマークの最先端FPN検出器と比較して, 競争性能が向上していることがわかった。
論文 参考訳(メタデータ) (2021-03-19T05:51:53Z) - CFC-Net: A Critical Feature Capturing Network for Arbitrary-Oriented
Object Detection in Remote Sensing Images [0.9462808515258465]
本稿では,物体検出における識別的特徴の役割について論じる。
次に,検出精度を向上させるために,cfc-net (critical feature capture network) を提案する。
本手法は多くの最先端手法と比較して優れた検出性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-18T02:31:09Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。