論文の概要: Focal Attention Networks: optimising attention for biomedical image
segmentation
- arxiv url: http://arxiv.org/abs/2111.00534v1
- Date: Sun, 31 Oct 2021 16:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 14:31:54.710876
- Title: Focal Attention Networks: optimising attention for biomedical image
segmentation
- Title(参考訳): 焦点注意ネットワーク:バイオメディカルイメージセグメンテーションにおける注意の最適化
- Authors: Michael Yeung, Leonardo Rundo, Evis Sala, Carola-Bibiane Sch\"onlieb,
Guang Yang
- Abstract要約: 本研究では,注目度調整におけるフォカルパラメータの役割について検討し,損失関数とネットワークの関連を明らかにする。
3つのバイオメディカルイメージングデータセットに対して,注目モジュール数が少なく,最適な性能を実現する。
- 参考スコア(独自算出の注目度): 2.5243042477020836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, there has been increasing interest to incorporate attention
into deep learning architectures for biomedical image segmentation. The modular
design of attention mechanisms enables flexible integration into convolutional
neural network architectures, such as the U-Net. Whether attention is
appropriate to use, what type of attention to use, and where in the network to
incorporate attention modules, are all important considerations that are
currently overlooked. In this paper, we investigate the role of the Focal
parameter in modulating attention, revealing a link between attention in loss
functions and networks. By incorporating a Focal distance penalty term, we
extend the Unified Focal loss framework to include boundary-based losses.
Furthermore, we develop a simple and interpretable, dataset and model-specific
heuristic to integrate the Focal parameter into the Squeeze-and-Excitation
block and Attention Gate, achieving optimal performance with fewer number of
attention modules on three well-validated biomedical imaging datasets,
suggesting judicious use of attention modules results in better performance and
efficiency.
- Abstract(参考訳): 近年,バイオメディカルイメージセグメンテーションのためのディープラーニングアーキテクチャへの関心が高まっている。
注意機構のモジュール設計により、U-Netのような畳み込みニューラルネットワークアーキテクチャへの柔軟な統合が可能になる。
注意が適切かどうか、使用すべき注意の種類、および注意モジュールを組み込むためのネットワーク内の場所が、現在見過ごされている重要な考慮事項である。
本稿では,注意の変調における焦点パラメータの役割について検討し,損失関数とネットワークにおける注意の関連を明らかにする。
焦点距離ペナルティ項を組み込むことにより、境界に基づく損失を含む統一焦点損失フレームワークを拡張する。
さらに, 簡易かつ解釈可能な, データセット, モデル固有のヒューリスティックを開発し, 焦点パラメータを絞り出しブロックとアテンションゲートに統合し, 3つのよく評価された生体医用イメージングデータセットにおいて, 注意モジュール数が少なく, 最適な性能を実現する。
関連論文リスト
- A Novel Approach to Chest X-ray Lung Segmentation Using U-net and Modified Convolutional Block Attention Module [0.46040036610482665]
本稿では,胸部X線像におけるU-netと注意機構を統合した肺分画の新しいアプローチを提案する。
提案手法は,CBAM(Convolutional Block Attention Module)を組み込むことで,U-netアーキテクチャを向上する。
CBAMとU-netアーキテクチャの採用は、医用画像の分野で大きな進歩を見せている。
論文 参考訳(メタデータ) (2024-04-22T16:33:06Z) - Holistic Prototype Attention Network for Few-Shot VOS [74.25124421163542]
FSVOS(Few-shot Video Object segmentation)は、少数のサポートイメージに頼って、目に見えないクラスの動的オブジェクトをセグメントすることを目的としている。
本稿では,FSVOS を前進させるための総合プロトタイプアテンションネットワーク (HPAN) を提案する。
論文 参考訳(メタデータ) (2023-07-16T03:48:57Z) - CAT: Learning to Collaborate Channel and Spatial Attention from
Multi-Information Fusion [23.72040577828098]
本稿では,空間とチャネルのアテンション間の協調を活性化する「CAT」と呼ばれるプラグイン・アンド・プレイアテンション・モジュールを提案する。
具体的には、特徴を訓練可能な係数(コラ因子)として表現し、異なる注意モジュールの寄与を適応的に組み合わせる。
我々のCATは、オブジェクト検出、インスタンスセグメンテーション、画像分類において、既存の最先端の注意機構よりも優れています。
論文 参考訳(メタデータ) (2022-12-13T02:34:10Z) - Feedback Chain Network For Hippocampus Segmentation [59.74305660815117]
海馬セグメンテーションタスクのための階層型フィードバックチェーンネットワークを提案する。
提案手法は,3つの公開データセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-15T04:32:10Z) - Learning to ignore: rethinking attention in CNNs [87.01305532842878]
我々は,CNNの注意機構を再構築し,出席する学習ではなく無視することを学ぶことを提案する。
具体的には、シーン内で無関係な情報を明示的に学習し、生成した表現でそれを抑えることを提案する。
論文 参考訳(メタデータ) (2021-11-10T13:47:37Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Coordinate Attention for Efficient Mobile Network Design [96.40415345942186]
チャネルの注目に位置情報を埋め込むことにより,モバイルネットワークに対する新たな注意メカニズムを提案する。
2次元グローバルプーリングにより特徴テンソルを単一特徴ベクトルに変換するチャネルアテンションとは異なり、座標アテンションはチャネルアテンションを2つの1次元特徴符号化プロセスに分解する。
座標の注意はImageNetの分類に有用であり、オブジェクト検出やセマンティックセグメンテーションといった下流タスクではよりうまく振る舞う。
論文 参考訳(メタデータ) (2021-03-04T09:18:02Z) - Multi-stage Attention ResU-Net for Semantic Segmentation of
Fine-Resolution Remote Sensing Images [9.398340832493457]
この問題に対処するための線形注意機構(LAM)を提案する。
LAMは、計算効率の高いドット積アテンションとほぼ同値である。
微細なリモートセンシング画像からのセマンティックセグメンテーションのためのマルチステージアテンションResU-Netを設計する。
論文 参考訳(メタデータ) (2020-11-29T07:24:21Z) - Efficient Attention Network: Accelerate Attention by Searching Where to
Plug [11.616720452770322]
本稿では,既存のアテンションモジュールの効率を改善するために,EAN(Efficient Attention Network)というフレームワークを提案する。
EANでは、共有メカニズムを活用して、バックボーン内のアテンションモジュールを共有し、強化学習を通じて共有アテンションモジュールを接続する場所を探索する。
広く使われているベンチマークと一般的な注意ネットワークの実験は、EANの有効性を示している。
論文 参考訳(メタデータ) (2020-11-28T03:31:08Z) - Deep Reinforced Attention Learning for Quality-Aware Visual Recognition [73.15276998621582]
我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
論文 参考訳(メタデータ) (2020-07-13T02:44:38Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。