論文の概要: Fastidious Attention Network for Navel Orange Segmentation
- arxiv url: http://arxiv.org/abs/2003.11734v1
- Date: Thu, 26 Mar 2020 03:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 21:51:01.073295
- Title: Fastidious Attention Network for Navel Orange Segmentation
- Title(参考訳): Navel Orange Segmentationのための高速注意ネットワーク
- Authors: Xiaoye Sun, Gongyan Li, Shaoyun Xu
- Abstract要約: 本稿では,モデルの性能向上のための注意機構を提案する。
アクティベーションとしきい値に基づいて、ファシダス・セルフアテンション・モジュール(FSAM)とファシダス・インターアテンション・モジュール(FIAM)を設計する。
本研究では, 茎端, 花端, 欠陥, 潰瘍のセマンティックセグメンテーションにおける課題を解決するために, FANet(Fastidious Attention Network)を構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning achieves excellent performance in many domains, so we not only
apply it to the navel orange semantic segmentation task to solve the two
problems of distinguishing defect categories and identifying the stem end and
blossom end, but also propose a fastidious attention mechanism to further
improve model performance. This lightweight attention mechanism includes two
learnable parameters, activations and thresholds, to capture long-range
dependence. Specifically, the threshold picks out part of the spatial feature
map and the activation excite this area. Based on activations and thresholds
training from different types of feature maps, we design fastidious
self-attention module (FSAM) and fastidious inter-attention module (FIAM). And
then construct the Fastidious Attention Network (FANet), which uses U-Net as
the backbone and embeds these two modules, to solve the problems with semantic
segmentation for stem end, blossom end, flaw and ulcer. Compared with some
state-of-the-art deep-learning-based networks under our navel orange dataset,
experiments show that our network is the best performance with pixel accuracy
99.105%, mean accuracy 77.468%, mean IU 70.375% and frequency weighted IU
98.335%. And embedded modules show better discrimination of 5 categories
including background, especially the IU of flaw is increased by 3.165%.
- Abstract(参考訳): 深層学習は多くの領域において優れた性能を発揮するため、欠陥カテゴリを識別し、茎端と花の端を識別する2つの問題を解くために、オレンジのセマンティックセマンティックセマンティクスタスクに適用するだけでなく、モデル性能をさらに改善するためのファッショニング機構も提案する。
この軽量な注意機構は、2つの学習可能なパラメータ、アクティベーションとしきい値を含み、長距離依存を捉える。
具体的には、閾値が空間的特徴マップの一部を選び、活性化がこの領域を興奮させる。
異なる種類の特徴マップからのアクティベーションとしきい値のトレーニングに基づいて、ファシダス・セルフアテンション・モジュール(FSAM)とファシダス・インターアテンション・モジュール(FIAM)を設計する。
そして、u-netをバックボーンとして使用し、これら2つのモジュールを組み込むfastidious attention network(fanet)を構築して、stem end、bloom end、crash and ulcerのセマンティックセグメンテーションの問題を解決する。
いくつかの最先端のディープラーニングベースのネットワークと比較すると、我々のネットワークは99.105%、平均精度77.468%、平均IU 70.375%、周波数重み98.335%で最高のパフォーマンスを示している。
組込みモジュールは、背景を含む5つのカテゴリのより良い識別を示し、特に欠陥のIUは3.165%増加した。
関連論文リスト
- Dual Attention U-Net with Feature Infusion: Pushing the Boundaries of
Multiclass Defect Segmentation [1.487252325779766]
提案アーキテクチャであるDual Attentive U-Net with Feature Infusion (DAU-FI Net)はセマンティックセグメンテーションにおける課題に対処する。
DAU-FI Netは、複数スケールの空間チャネルアテンション機構と特徴注入を統合し、オブジェクトのローカライゼーションの精度を高める。
挑戦的な下水道管と、欠陥データセットと、DAU-FI Netの能力を検証したベンチマークデータセットに関する総合的な実験。
論文 参考訳(メタデータ) (2023-12-21T17:23:49Z) - Systematic Architectural Design of Scale Transformed Attention Condenser
DNNs via Multi-Scale Class Representational Response Similarity Analysis [93.0013343535411]
マルチスケールクラス表現応答類似性分析(ClassRepSim)と呼ばれる新しいタイプの分析法を提案する。
ResNetスタイルのアーキテクチャにSTACモジュールを追加すると、最大1.6%の精度が向上することを示す。
ClassRepSim分析の結果は、STACモジュールの効果的なパラメータ化を選択するために利用することができ、競争性能が向上する。
論文 参考訳(メタデータ) (2023-06-16T18:29:26Z) - Semantic Feature Integration network for Fine-grained Visual
Classification [5.182627302449368]
本稿では,これらの課題に対処するためにセマンティック・フィーチャー・インテグレーション・ネットワーク(SFI-Net)を提案する。
不要な特徴を排除し、識別的特徴間の意味関係を再構築することにより、SFI-Netは満足な性能を実現した。
論文 参考訳(メタデータ) (2023-02-13T07:32:25Z) - EAA-Net: Rethinking the Autoencoder Architecture with Intra-class
Features for Medical Image Segmentation [4.777011444412729]
We propose a light-weight end-to-end segmentation framework based on multi-task learning, called Edge Attention autoencoder Network (EAA-Net)。
提案手法は,クラス間特徴の抽出にセグメンテーションネットワークを利用するだけでなく,フォアグラウンド内でのクラス内特徴の抽出にも再構成ネットワークを適用する。
実験結果から,医用画像分割作業において,本手法が良好に機能することが確認された。
論文 参考訳(メタデータ) (2022-08-19T07:42:55Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - TC-Net: Triple Context Network for Automated Stroke Lesion Segmentation [0.5482532589225552]
本稿では,空間的コンテキスト情報を中心として,新たなネットワークである Triple Context Network (TC-Net) を提案する。
我々のネットワークはオープンデータセットATLASで評価され、最高スコアは0.594、ハウスドルフ距離は27.005mm、平均対称性表面距離は7.137mmである。
論文 参考訳(メタデータ) (2022-02-28T11:12:16Z) - Learning Target-aware Representation for Visual Tracking via Informative
Interactions [49.552877881662475]
トラッキングのための特徴表現のターゲット認識能力を改善するために,新しいバックボーンアーキテクチャを提案する。
提案したGIMモジュールとInBN機構は、CNNやTransformerなど、さまざまなバックボーンタイプに適用可能である。
論文 参考訳(メタデータ) (2022-01-07T16:22:27Z) - An Attention-Fused Network for Semantic Segmentation of
Very-High-Resolution Remote Sensing Imagery [26.362854938949923]
注目融合ネットワーク(AFNet)という,新しい畳み込みニューラルネットワークアーキテクチャを提案する。
ISPRS Vaihingen 2DデータセットとISPRS Potsdam 2Dデータセットで、総精度91.7%、平均F1スコア90.96%の最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-10T06:23:27Z) - A^2-FPN: Attention Aggregation based Feature Pyramid Network for
Instance Segmentation [68.10621089649486]
アテンションアグリゲーションに基づく機能ピラミッドネットワーク(A2-FPN)を提案し、マルチスケール機能学習を改善します。
A2-FPNは、Cascade Mask R-CNNやHybrid Task Cascadeといった強力なベースラインに統合された場合、2.0%と1.4%のマスクAPを改善する。
論文 参考訳(メタデータ) (2021-05-07T11:51:08Z) - Point Transformer [122.2917213154675]
セルフアテンションネットワークを3Dポイントクラウド処理に適用することを検討する。
ポイントクラウドのセルフアテンションレイヤを設計し、セマンティックシーンセグメンテーションなどのタスクのためのセルフアテンションネットワークの構築に使用します。
ポイントトランスフォーマーの設計は、ドメインやタスク間の事前作業を改善する。
論文 参考訳(メタデータ) (2020-12-16T18:58:56Z) - Channel-wise Knowledge Distillation for Dense Prediction [73.99057249472735]
本稿では,学生ネットワークと教師ネットワークのチャンネルワイズ機能について提案する。
様々なネットワーク構造を持つ3つのベンチマークにおいて、一貫して優れた性能を実現している。
論文 参考訳(メタデータ) (2020-11-26T12:00:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。