論文の概要: Attention-based Assisted Excitation for Salient Object Detection
- arxiv url: http://arxiv.org/abs/2003.14194v2
- Date: Mon, 11 May 2020 05:42:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 01:23:42.052910
- Title: Attention-based Assisted Excitation for Salient Object Detection
- Title(参考訳): 有意物体検出のための注意に基づく補助励起
- Authors: Saeed Masoudnia, Melika Kheirieh, Abdol-Hossein Vahabie, Babak Nadjar
Araabi
- Abstract要約: 脳内の物体に基づく注意から着想を得たCNNの特徴地図におけるアクティベーションの修飾機構を導入する。
脳と同様、私たちはこのアイデアを使って、厳密な物体検出における2つの課題に対処する。
我々は、AlexNet、VGG、ResNetといったエンコーダ部分の異なるアーキテクチャを用いて、U-netモデルにおけるオブジェクトベースの注意を実装する。
- 参考スコア(独自算出の注目度): 3.238929552408813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual attention brings significant progress for Convolution Neural Networks
(CNNs) in various applications. In this paper, object-based attention in human
visual cortex inspires us to introduce a mechanism for modification of
activations in feature maps of CNNs. In this mechanism, the activations of
object locations are excited in feature maps. This mechanism is specifically
inspired by attention-based gain modulation in object-based attention in brain.
It facilitates figure-ground segregation in the visual cortex. Similar to
brain, we use the idea to address two challenges in salient object detection:
gathering object interior parts while segregation from background with concise
boundaries. We implement the object-based attention in the U-net model using
different architectures in the encoder parts, including AlexNet, VGG, and
ResNet. The proposed method was examined on three benchmark datasets: HKU-IS,
MSRB, and PASCAL-S. Experimental results showed that our inspired method could
significantly improve the results in terms of mean absolute error and
F-measure. The results also showed that our proposed method better captured not
only the boundary but also the object interior. Thus, it can tackle the
mentioned challenges.
- Abstract(参考訳): 様々な応用における畳み込みニューラルネットワーク(cnns)の視覚的な注目は大きな進歩をもたらす。
本稿では,人間の視覚野における物体に基づく注意を刺激し,CNNの特徴マップにアクティベーション変更のメカニズムを導入する。
このメカニズムでは、オブジェクトの位置のアクティベーションはフィーチャーマップで興奮しています。
このメカニズムは特に脳のオブジェクトベースの注意における注意に基づく利得変調にインスパイアされている。
視覚野における図形の分離を促進する。
脳と同じように、私たちはこのアイデアを使って、簡潔な境界を持つ背景から分離しながら物体の内部部分を集めるという、サルエントな物体検出における2つの課題に対処しています。
我々は、AlexNet、VGG、ResNetといったエンコーダ部分の異なるアーキテクチャを用いて、U-netモデルにおけるオブジェクトベースの注意を実装する。
提案手法はhku-is,msrb,pascal-sの3つのベンチマークデータセットで検討した。
実験結果から,本手法は平均絶対誤差とF測定の点で有意に改善できることがわかった。
また,提案手法は境界だけでなく物体内部も捉えることができることを示した。
したがって、上記の課題に取り組むことができる。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - ELA: Efficient Local Attention for Deep Convolutional Neural Networks [15.976475674061287]
本稿では、簡単な構造で大幅な性能向上を実現するための効率的な局所注意法(ELA)を提案する。
これらの課題を克服するため、我々は1次元畳み込みとグループ正規化機能強化技術の導入を提案する。
ELAはResNet、MobileNet、DeepLabといったディープCNNネットワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2024-03-02T08:06:18Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Bi-directional Object-context Prioritization Learning for Saliency
Ranking [60.62461793691836]
既存のアプローチは、オブジェクトオブジェクトかオブジェクトシーンの関係を学ぶことに集中しています。
我々は,人間の視覚認識システムにおいて,空間的注意と物体に基づく注意が同時に機能することが観察された。
本稿では,空間的注意を統一する新たな双方向手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:03Z) - Fast Camouflaged Object Detection via Edge-based Reversible
Re-calibration Network [17.538512222905087]
本稿では,ERRNetと呼ばれるエッジベースの可逆再校正ネットワークを提案する。
Selective Edge Aggregation(SEA)とReversible Re-calibration Unit(RRU)の2つの革新的な設計が特徴である。
実験の結果,ERRNetは3つのCODデータセットと5つの医用画像セグメンテーションデータセットで既存の最先端ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-11-05T02:03:54Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Rotate to Attend: Convolutional Triplet Attention Module [21.228370317693244]
3分岐構造を用いた新しい注意重み計算法である三重項注意法を提案する。
本手法は単純かつ効率的であり,アドオンモジュールとして従来のバックボーンネットワークに簡単に接続できる。
ImageNet-1k上の画像分類や,MSCOCOおよびPASCAL VOCデータセット上でのオブジェクト検出など,様々な課題に対する本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-10-06T21:31:00Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。