論文の概要: FunduSAM: A Specialized Deep Learning Model for Enhanced Optic Disc and Cup Segmentation in Fundus Images
- arxiv url: http://arxiv.org/abs/2502.06220v1
- Date: Mon, 10 Feb 2025 07:52:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:33:14.520775
- Title: FunduSAM: A Specialized Deep Learning Model for Enhanced Optic Disc and Cup Segmentation in Fundus Images
- Title(参考訳): FunduSAM:Fundus画像における光学ディスクとカップセグメンテーションの強化のための特化ディープラーニングモデル
- Authors: Jinchen Yu, Yongwei Nie, Fei Qi, Wenxiong Liao, Hongmin Cai,
- Abstract要約: 本稿では,光ディスク(OD)とオプティカルカップ(OC)セグメンテーション用に設計されたディープネットワークを構築するために,いくつかのアダプタをSAMに組み込んだ新しいモデルFunduSAMを紹介する。
1200基の画像からなるREFUGEデータセットの実験は、主要な5つのアプローチと比較して、FunduSAMの優れた性能を示している。
- 参考スコア(独自算出の注目度): 17.008570851801267
- License:
- Abstract: The Segment Anything Model (SAM) has gained popularity as a versatile image segmentation method, thanks to its strong generalization capabilities across various domains. However, when applied to optic disc (OD) and optic cup (OC) segmentation tasks, SAM encounters challenges due to the complex structures, low contrast, and blurred boundaries typical of fundus images, leading to suboptimal performance. To overcome these challenges, we introduce a novel model, FunduSAM, which incorporates several Adapters into SAM to create a deep network specifically designed for OD and OC segmentation. The FunduSAM utilizes Adapter into each transformer block after encoder for parameter fine-tuning (PEFT). It enhances SAM's feature extraction capabilities by designing a Convolutional Block Attention Module (CBAM), addressing issues related to blurred boundaries and low contrast. Given the unique requirements of OD and OC segmentation, polar transformation is used to convert the original fundus OD images into a format better suited for training and evaluating FunduSAM. A joint loss is used to achieve structure preservation between the OD and OC, while accurate segmentation. Extensive experiments on the REFUGE dataset, comprising 1,200 fundus images, demonstrate the superior performance of FunduSAM compared to five mainstream approaches.
- Abstract(参考訳): Segment Anything Model (SAM) は、様々な領域にまたがる強力な一般化機能により、汎用的な画像分割法として人気を集めている。
しかし、オプティカルディスク(OD)とオプティカルカップ(OC)のセグメンテーションタスクに適用すると、SAMは、複雑な構造、低コントラスト、ファンドス画像に典型的なぼやけた境界による課題に直面する。
これらの課題を克服するために、いくつかのアダプタをSAMに組み込んだ新しいモデルFunduSAMを導入し、ODとOCセグメンテーションに特化したディープネットワークを構築する。
FunduSAMは、パラメータ細調整(PEFT)のためにエンコーダの後、各トランスバータブロックにAdapterを利用する。
これは、CBAM(Convolutional Block Attention Module)を設計することでSAMの機能抽出機能を強化し、ぼやけた境界と低コントラストに関連する問題に対処する。
ODとOCセグメンテーションのユニークな要件を考慮すると、オリジナルのODイメージをFunduSAMのトレーニングや評価に適したフォーマットに変換するために極変換が使用される。
正確なセグメンテーションをしながら、ODとOCの間の構造保存を実現するために、関節損失を用いる。
1200基の画像からなるREFUGEデータセットの大規模な実験は、主要な5つのアプローチと比較して、FunduSAMの優れた性能を示している。
関連論文リスト
- Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
異常セグメンテーションのための textbfSelf-textbfPerceptinon textbfTuning (textbfSPT) 法を提案する。
SPT法は, 自己描画型チューニング戦略を取り入れ, 異常マスクの初期粗いドラフトを生成し, 精製処理を行う。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - MM-UNet: A Mixed MLP Architecture for Improved Ophthalmic Image Segmentation [3.2846676620336632]
眼科画像分割は眼疾患の診断において重要な基礎となる。
トランスフォーマーベースのモデルはこれらの制限に対処するが、かなりの計算オーバーヘッドをもたらす。
本稿では,眼内画像分割に適したMixedモデルであるMM-UNetを紹介する。
論文 参考訳(メタデータ) (2024-08-16T08:34:50Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - SAMDA: Leveraging SAM on Few-Shot Domain Adaptation for Electronic
Microscopy Segmentation [3.7562258027956186]
本稿では,新しいドメイン適応フレームワークSAMDAを紹介する。
これは、Segment Anything Model(SAM)と埋め込み空間のnnUNetを組み合わせることで、高い転送性と精度を実現する。
論文 参考訳(メタデータ) (2024-03-12T02:28:29Z) - SAM-DiffSR: Structure-Modulated Diffusion Model for Image
Super-Resolution [49.205865715776106]
本稿では,SAM-DiffSRモデルを提案する。このモデルでは,ノイズをサンプリングする過程において,SAMからの微細な構造情報を利用することで,推論時に追加の計算コストを伴わずに画像品質を向上させることができる。
DIV2Kデータセット上でPSNRの最大値で既存の拡散法を0.74dB以上越えることにより,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-27T01:57:02Z) - BA-SAM: Scalable Bias-Mode Attention Mask for Segment Anything Model [65.92173280096588]
我々は,Segment Anything Model (SAM)における画像分解能変動の課題に対処する。
SAMはゼロショットの汎用性で知られており、さまざまな画像サイズを持つデータセットに直面するとパフォーマンスが低下する。
我々は、各トークンが隣り合う情報を優先順位付けできるバイアスモードのアテンションマスクを提案する。
論文 参考訳(メタデータ) (2024-01-04T15:34:44Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - SAMIHS: Adaptation of Segment Anything Model for Intracranial Hemorrhage
Segmentation [18.867207134086193]
脳梗塞診断と手術計画において,頭蓋内出血分節は重要かつ困難なステップである。
そこで我々は,脳内出血セグメンテーションのためのSAM-based parameter- efficient fine-tuning法(SAMIHS)を提案する。
2つの公開データセットに対する実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-11-14T14:23:09Z) - Multi-Prompt Fine-Tuning of Foundation Models for Enhanced Medical Image
Segmentation [10.946806607643689]
Segment Anything Model (SAM) は、自然画像セグメンテーションの革命的進歩を導入した強力な基礎モデルである。
本研究では,SAMのイメージ毎に複数のプロンプトをバンドルして処理する機能を活用した,新しい微調整フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-03T19:05:00Z) - JOINEDTrans: Prior Guided Multi-task Transformer for Joint Optic
Disc/Cup Segmentation and Fovea Detection [1.121358474059223]
本稿では,JOINEDTrans という名前のジョイントOD/OCセグメンテーションと卵胞検出のための先行ガイド付きマルチタスクトランスフレームワークを提案する。
血管分割作業で予め訓練したエンコーダを用いて,血管,OD/OC,卵胞の位置関係を効果的に活用する。
ジョイントセグメンテーション及び検出モジュールを介して、ジョイントOD/OC粗いセグメンテーションとフォベアヒートマップの局在を得る。
論文 参考訳(メタデータ) (2023-05-19T08:10:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。