論文の概要: MedLiteNet: Lightweight Hybrid Medical Image Segmentation Model
- arxiv url: http://arxiv.org/abs/2509.03041v1
- Date: Wed, 03 Sep 2025 05:59:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.42905
- Title: MedLiteNet: Lightweight Hybrid Medical Image Segmentation Model
- Title(参考訳): MedLiteNet:軽量ハイブリッド医療画像分割モデル
- Authors: Pengyang Yu, Haoquan Wang, Gerard Marks, Tahar Kechadi, Laurence T. Yang, Sahraoui Dhelim, Nyothiri Aung,
- Abstract要約: そこで本研究では,Dermoscopic segmentationに適した軽量CNNトランスフォーマーであるMedLiteNetを紹介する。
エンコーダは、Deep-wise Mobile Inverted Bottleneckブロックを積み重ねて計算を抑え、ボトルネックレベルのクロススケールトークン混合ユニットを挿入して解像度間で情報を交換し、境界対応の自己保持モジュールを埋め込み、病変の輪郭を鋭くする。
- 参考スコア(独自算出の注目度): 17.73370811236741
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate skin-lesion segmentation remains a key technical challenge for computer-aided diagnosis of skin cancer. Convolutional neural networks, while effective, are constrained by limited receptive fields and thus struggle to model long-range dependencies. Vision Transformers capture global context, yet their quadratic complexity and large parameter budgets hinder use on the small-sample medical datasets common in dermatology. We introduce the MedLiteNet, a lightweight CNN Transformer hybrid tailored for dermoscopic segmentation that achieves high precision through hierarchical feature extraction and multi-scale context aggregation. The encoder stacks depth-wise Mobile Inverted Bottleneck blocks to curb computation, inserts a bottleneck-level cross-scale token-mixing unit to exchange information between resolutions, and embeds a boundary-aware self-attention module to sharpen lesion contours.
- Abstract(参考訳): 皮膚癌をコンピュータで診断する上で、正確な皮膚病変のセグメンテーションは依然として重要な技術的課題である。
畳み込みニューラルネットワークは、有効ではあるが、制限された受容場によって制約されるため、長距離依存のモデル化に苦慮する。
視覚変換器は、世界的文脈を捉えるが、その二次的な複雑さと大きなパラメータ予算は、皮膚科に共通する小さなサンプルの医療データセットの使用を妨げる。
MedLiteNetは,階層的特徴抽出とマルチスケールコンテキストアグリゲーションによって高い精度を達成できる,光学的セグメンテーションに適した軽量CNNトランスフォーマーである。
エンコーダは、Deep-wise Mobile Inverted Bottleneckブロックを積み重ねて計算を抑え、ボトルネックレベルのクロススケールトークン混合ユニットを挿入して解像度間で情報を交換し、境界対応の自己保持モジュールを埋め込み、病変の輪郭を鋭くする。
関連論文リスト
- ASP-VMUNet: Atrous Shifted Parallel Vision Mamba U-Net for Skin Lesion Segmentation [17.88432817400751]
本稿では,新しい皮膚病変セグメンテーションフレームワークであるAtrous Shifted Parallel Vision Mamba UNet(ASP-VMUNet)を提案する。
このフレームワークは、効率よくスケーラブルなMambaアーキテクチャを統合し、従来のCNNと計算的に要求されるトランスフォーマーの制限を克服する。
4つのベンチマークデータセットでテストされたASP-VMUNetは、皮膚病変のセグメンテーションにおいて優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-25T08:17:22Z) - A Study on the Performance of U-Net Modifications in Retroperitoneal Tumor Segmentation [45.39707664801522]
後腹膜には、稀な良性および悪性型を含む様々な腫瘍があり、診断と治療の課題を引き起こす。
腫瘍径の推定は不規則な形状のため困難であり,手動分割は時間を要する。
本研究は,CNN,ViT,Mamba,xLSTMなどのU-Net拡張を,新しい社内CTデータセットと公開臓器セグメンテーションデータセットに基づいて評価する。
論文 参考訳(メタデータ) (2025-02-01T04:25:28Z) - AFFSegNet: Adaptive Feature Fusion Segmentation Network for Microtumors and Multi-Organ Segmentation [31.97835089989928]
医用画像のセグメンテーションは、コンピュータビジョンにおいて重要な課題であり、診断、治療計画、疾患モニタリングにおける臨床医を支援する。
本稿では,局所的特徴とグローバルな特徴を効果的に統合し,正確な医用画像分割を実現するトランスフォーマアーキテクチャである適応意味ネットワーク(ASSNet)を提案する。
多臓器、肝腫瘍、膀胱腫瘍の分節を含む様々な医療画像の分節タスクに関するテストは、ATSNetが最先端の結果を達成することを実証している。
論文 参考訳(メタデータ) (2024-09-12T06:25:44Z) - TBConvL-Net: A Hybrid Deep Learning Architecture for Robust Medical Image Segmentation [6.013821375459473]
医用画像セグメンテーションのための新しいディープラーニングアーキテクチャを提案する。
提案モデルでは,10の公開データセット上でのテクニックの現状に対して,一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-09-05T09:14:03Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。