論文の概要: LFA-Net: A Lightweight Network with LiteFusion Attention for Retinal Vessel Segmentation
- arxiv url: http://arxiv.org/abs/2509.21738v1
- Date: Fri, 26 Sep 2025 01:07:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.101558
- Title: LFA-Net: A Lightweight Network with LiteFusion Attention for Retinal Vessel Segmentation
- Title(参考訳): LFA-Net:網膜血管セグメンテーションのためのライトフュージョンアテンション付き軽量ネットワーク
- Authors: Mehwish Mehmood, Ivor Spence, Muhammad Fahim,
- Abstract要約: 新たに設計された注目モジュールLiteFusion-Attentionを組み込んだ新しい血管分割ネットワークLFA-Netを提案する。
LFA-Netは、0.11百万のパラメータ、0.42MBのメモリサイズ、および4.46GFLOPのハイパフォーマンスを提供する。
- 参考スコア(独自算出の注目度): 1.8242874713398711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lightweight retinal vessel segmentation is important for the early diagnosis of vision-threatening and systemic diseases, especially in a real-world clinical environment with limited computational resources. Although segmentation methods based on deep learning are improving, existing models are still facing challenges of small vessel segmentation and high computational costs. To address these challenges, we proposed a new vascular segmentation network, LFA-Net, which incorporates a newly designed attention module, LiteFusion-Attention. This attention module incorporates residual learning connections, Vision Mamba-inspired dynamics, and modulation-based attention, enabling the model to capture local and global context efficiently and in a lightweight manner. LFA-Net offers high performance with 0.11 million parameters, 0.42 MB memory size, and 4.46 GFLOPs, which make it ideal for resource-constrained environments. We validated our proposed model on DRIVE, STARE, and CHASE_DB with outstanding performance in terms of dice scores of 83.28, 87.44, and 84.50% and Jaccard indices of 72.85, 79.31, and 74.70%, respectively. The code of LFA-Net is available online https://github.com/Mehwish4593/LFA-Net.
- Abstract(参考訳): 視力低下と全身疾患の早期診断には,特に計算資源が限られている現実的な臨床環境において,軽量網膜血管セグメンテーションが重要である。
ディープラーニングに基づくセグメンテーション手法は改善されているものの、既存のモデルでは小さな船体セグメンテーションと高い計算コストの課題に直面している。
これらの課題に対処するため,新たに設計された注目モジュールLiteFusion-Attentionを組み込んだ新しい血管分割ネットワークLFA-Netを提案した。
このアテンションモジュールには、残差学習接続、ビジョン・マンバにインスパイアされたダイナミクス、変調に基づくアテンションが含まれており、モデルが局所的およびグローバルなコンテキストを効率的に軽量に捉えることができる。
LFA-Netは、0.11百万のパラメータ、0.42MBのメモリサイズ、および4.46GFLOPのハイパフォーマンスを提供する。
提案したDRIVE, STARE, CHASE_DBでは, ダイススコア83.28, 87.44, 84.50%, Jaccard指標72.85, 79.31, 74.70%で優れた性能を示した。
LFA-Netのコードはhttps://github.com/Mehwish4593/LFA-Netで公開されている。
関連論文リスト
- LFRA-Net: A Lightweight Focal and Region-Aware Attention Network for Retinal Vessel Segmentatio [4.5211402678313135]
LFRA-Netは、正確で効果的な網膜血管セグメンテーションに最適化された軽量ネットワークである。
局所的およびグローバルな依存関係を効率的にキャプチャすることで、特徴表現と地域的焦点を高める。
LFRA-Netは、既存のディープラーニング手法と比較して、セグメント化精度と計算コストの理想的な比を提供する。
論文 参考訳(メタデータ) (2025-09-15T11:47:51Z) - FocusNet: Transformer-enhanced Polyp Segmentation with Local and Pooling Attention [11.964732823289333]
大腸内視鏡は大腸ポリープの早期診断に不可欠である。
定期スクリーニングは良性ポリープがCRCに進行するのを効果的に防ぐことができる。
本研究では,ポリプのセグメンテーションを改善するために,トランスフォーマー強化型フォーカスアテンションネットワークであるFocusNetを提案する。
論文 参考訳(メタデータ) (2025-04-18T09:59:26Z) - LSNet: See Large, Focus Small [67.05569159984691]
我々は,大カーネル認識と小カーネル集約を組み合わせたLS(textbfLarge-textbfSmall)畳み込みを導入する。
LSNetは、様々な視覚タスクにおいて、既存の軽量ネットワークよりも優れた性能と効率を実現する。
論文 参考訳(メタデータ) (2025-03-29T16:00:54Z) - KaLDeX: Kalman Filter based Linear Deformable Cross Attention for Retina Vessel Segmentation [46.57880203321858]
カルマンフィルタを用いた線形変形型クロスアテンション(LDCA)モジュールを用いた血管セグメンテーションのための新しいネットワーク(KaLDeX)を提案する。
我々のアプローチは、カルマンフィルタ(KF)ベースの線形変形可能な畳み込み(LD)とクロスアテンション(CA)モジュールの2つの重要なコンポーネントに基づいている。
提案手法は,網膜基底画像データセット(DRIVE,CHASE_BD1,STARE)とOCTA-500データセットの3mm,6mmを用いて評価した。
論文 参考訳(メタデータ) (2024-10-28T16:00:42Z) - MobiLlama: Towards Accurate and Lightweight Fully Transparent GPT [87.4910758026772]
近年のLarge Language Models (LLM) 開発において,"Bigger the Better" が主流となっている。
本稿では、リソース制約のあるデバイスに対して、正確かつ効率的なSLM(Small Language Models)を設計する上での課題に対処し、"less is more"パラダイムについて考察する。
論文 参考訳(メタデータ) (2024-02-26T18:59:03Z) - UCM-Net: A Lightweight and Efficient Solution for Skin Lesion Segmentation using MLP and CNN [4.7894373545842805]
UCM-NetはMulti-Layer Perceptrons(MLP)とConvolutional Neural Networks(CNN)を組み合わせた新しい皮膚病変セグメンテーションモデルである
50KB未満のパラメータで堅牢なパフォーマンスを示し、1秒あたり0.05ギガ操作(GLOP)を必要としない。
これは皮膚病変のセグメンテーションの効率性の潜在的なベンチマークであり、資源制約された設定での展開に適している。
論文 参考訳(メタデータ) (2023-10-14T00:32:11Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - Rethinking Mobile Block for Efficient Attention-based Models [60.0312591342016]
本稿では、パラメータ、FLOP、性能をトレードオフしながら、高密度予測のための現代的で効率的で軽量なモデルを開発することに焦点を当てる。
Inverted Residual Block (IRB) は軽量CNNの基盤として機能するが、注目に基づく研究ではその存在は認められていない。
我々はCNNベースのIRBをアテンションベースモデルに拡張し、軽量モデル設計のためのMMB(One-Residual Meta Mobile Block)を抽象化する。
論文 参考訳(メタデータ) (2023-01-03T15:11:41Z) - Lightweight and Progressively-Scalable Networks for Semantic
Segmentation [100.63114424262234]
マルチスケール学習フレームワークは,セマンティックセグメンテーションを向上する有効なモデルのクラスと見なされてきた。
本稿では,畳み込みブロックの設計と,複数スケールにわたる相互作用の仕方について,徹底的に解析する。
我々は,軽量で拡張性の高いネットワーク(LPS-Net)を考案した。
論文 参考訳(メタデータ) (2022-07-27T16:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。