論文の概要: SAM2LoRA: Composite Loss-Guided, Parameter-Efficient Finetuning of SAM2 for Retinal Fundus Segmentation
- arxiv url: http://arxiv.org/abs/2510.10288v1
- Date: Sat, 11 Oct 2025 17:07:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.877008
- Title: SAM2LoRA: Composite Loss-Guided, Parameter-Efficient Finetuning of SAM2 for Retinal Fundus Segmentation
- Title(参考訳): SAM2LoRA: 網膜基底偏析用SAM2の複合損失誘導, パラメータ効率の良い微細化
- Authors: Sayan Mandal, Divyadarshini Karthikeyan, Manas Paldhe,
- Abstract要約: 本稿では,基底画像のセグメンテーションにセグメンテーション任意のモデル2(SAM2)を適用したパラメータ効率の良い微調整手法を提案する。
SAM2LoRAはイメージエンコーダとマスクデコーダの両方に低ランクのアダプタを統合し、オリジナルのトレーニング可能なパラメータの5%未満を必要とする。
血管のDiceスコアは最大0.86点、光学ディスクのセグメンテーションは0.93点、AUCスコアは最大0.98点、AUCスコアは0.99点である。
- 参考スコア(独自算出の注目度): 0.5191474416940847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose SAM2LoRA, a parameter-efficient fine-tuning strategy that adapts the Segment Anything Model 2 (SAM2) for fundus image segmentation. SAM2 employs a masked autoencoder-pretrained Hierarchical Vision Transformer for multi-scale feature decoding, enabling rapid inference in low-resource settings; however, fine-tuning remains challenging. To address this, SAM2LoRA integrates a low-rank adapter into both the image encoder and mask decoder, requiring fewer than 5\% of the original trainable parameters. Our analysis indicates that for cross-dataset fundus segmentation tasks, a composite loss function combining segmentationBCE, SoftDice, and FocalTversky losses is essential for optimal network tuning. Evaluated on 11 challenging fundus segmentation datasets, SAM2LoRA demonstrates high performance in both blood vessel and optic disc segmentation under cross-dataset training conditions. It achieves Dice scores of up to 0.86 and 0.93 for blood vessel and optic disc segmentation, respectively, and AUC values of up to 0.98 and 0.99, achieving state-of-the-art performance while substantially reducing training overhead.
- Abstract(参考訳): 本稿では,パラメータ効率のよい微調整戦略であるSAM2LoRAを提案する。
SAM2は、マスク付きオートエンコーダで事前訓練された階層型視覚変換器を用いて、マルチスケールの機能デコーディングを行い、低リソース設定で高速な推論を可能にするが、微調整は依然として困難である。
これを解決するためにSAM2LoRAはイメージエンコーダとマスクデコーダの両方に低ランクのアダプタを統合する。
解析により,データセット間の基底分割タスクにおいて,セグメンテーションBCE,SoftDice,FocalTverskyの損失を組み合わせた複合損失関数が最適ネットワークチューニングに不可欠であることが示唆された。
SAM2LoRAは,11個の挑戦的底質セグメンテーションデータセットに基づいて,クロスデータセットトレーニング条件下での血管および光ディスクセグメンテーションにおいて高い性能を示す。
血管と光ディスクのセグメンテーションのDiceスコアは最大0.86と0.93で、AUC値は最大0.98と0.99で、最先端のパフォーマンスを達成し、トレーニングオーバーヘッドを大幅に低減する。
関連論文リスト
- BALR-SAM: Boundary-Aware Low-Rank Adaptation of SAM for Resource-Efficient Medical Image Segmentation [11.634558989215392]
Segment Anything Model (SAM)のようなビジョン基盤モデルは、ドメイン固有の適応が欠如しているため、しばしば医療画像のセグメンテーションに苦労する。
医療画像のSAMを強化する境界対応低ランク適応フレームワークであるBALR-SAMを提案する。
2) SAMのVision Transformerブロックに組み込まれた低ランクのアダプタは、医学的コンテキストにおける特徴表現と注意を最適化し、同時にパラメータ空間を著しく削減する。
論文 参考訳(メタデータ) (2025-09-29T02:36:09Z) - SAM2-UNeXT: An Improved High-Resolution Baseline for Adapting Foundation Models to Downstream Segmentation Tasks [50.97089872043121]
SAM2-UNeXTはSAM2-UNetの中核となる原理を基盤とした高度なフレームワークである。
我々は、補助的なDINOv2エンコーダの統合によりSAM2の表現能力を拡張する。
我々のアプローチは、単純なアーキテクチャでより正確なセグメンテーションを可能にし、複雑なデコーダ設計の必要性を緩和する。
論文 参考訳(メタデータ) (2025-08-05T15:36:13Z) - Depthwise-Dilated Convolutional Adapters for Medical Object Tracking and Segmentation Using the Segment Anything Model 2 [3.2852663769413106]
本稿では SAM2 の効率的な適応フレームワーク DD-SAM2 を提案する。
DD-SAM2にはDepthwise-Dilated Adapter (DD-Adapter)が組み込まれている。
DD-SAM2はSAM2のストリーミングメモリを完全に活用し、医療ビデオオブジェクトの追跡とセグメンテーションを行う。
論文 参考訳(メタデータ) (2025-07-19T13:19:55Z) - RP-SAM2: Refining Point Prompts for Stable Surgical Instrument Segmentation [21.258106247629296]
我々は,新しいシフトブロックと複合損失関数を組み込んだRP-SAM2を導入し,ポイントプロンプトを安定化させる。
提案手法は,ロバストなセグメンテーション能力を維持しつつ,正確な位置決めに依存するアノテータを低減させる。
Cataract1kデータセットの実験では、RP-SAM2はセグメンテーション精度を向上し、2%のmDSCゲイン、21.36%のmHD95が減少し、SAM2と比較してランダムな単一点プロンプト結果のばらつきが減少した。
論文 参考訳(メタデータ) (2025-03-25T18:59:23Z) - Efficient Knowledge Distillation of SAM for Medical Image Segmentation [0.04672991859386895]
Segment Anything Model (SAM)はインタラクティブなイメージセグメンテーションの新しい標準を設定し、さまざまなタスクで堅牢なパフォーマンスを提供する。
我々は, エンコーダとデコーダの最適化を, Mean Squared Error (MSE) と Perceptual Loss の組み合わせで組み合わせた新しい知識蒸留手法 KD SAM を提案する。
KD SAMはセグメンテーションの精度と計算効率を効果的にバランスさせ、資源制約のある環境でリアルタイムの医用画像セグメンテーションに適している。
論文 参考訳(メタデータ) (2025-01-28T06:33:30Z) - μP$^2$: Effective Sharpness Aware Minimization Requires Layerwise Perturbation Scaling [49.25546155981064]
シャープネス認識最小化(SAM)を用いたニューラルネットワークの無限幅限界について検討する。
この結果から, SAMのダイナミクスは, 広範なニューラルネットワークにおいて, 最後の層のみにSAMを適用することで効果的に低下することが判明した。
対照的に、階層的なスケーリングを伴う安定したパラメータ化を識別し、それを $textitMaximal Update and Perturbation $$mu$P$2$ と呼びます。
論文 参考訳(メタデータ) (2024-10-31T16:32:04Z) - CAT-SAM: Conditional Tuning for Few-Shot Adaptation of Segment Anything Model [90.26396410706857]
本稿では,CAT-SAM(ConditionAl Tuning Network)を提案する。
CAT-SAMはSAM全体を凍結し、マスクデコーダとイメージエンコーダに少数の学習可能なパラメータを同時に適用する。
Cat-SAM 変種は、非常に困難なワンショット適応設定の下でも、常に優れた目標セグメンテーション性能を達成する。
論文 参考訳(メタデータ) (2024-02-06T02:00:18Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - SAMIHS: Adaptation of Segment Anything Model for Intracranial Hemorrhage
Segmentation [18.867207134086193]
脳梗塞診断と手術計画において,頭蓋内出血分節は重要かつ困難なステップである。
そこで我々は,脳内出血セグメンテーションのためのSAM-based parameter- efficient fine-tuning法(SAMIHS)を提案する。
2つの公開データセットに対する実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-11-14T14:23:09Z) - Systematic Investigation of Sparse Perturbed Sharpness-Aware
Minimization Optimizer [158.2634766682187]
ディープニューラルネットワークは、複雑で非構造的なロスランドスケープのため、しばしば一般化の貧弱さに悩まされる。
SharpnessAware Minimization (SAM) は、摂動を加える際の景観の変化を最小限に抑えることで損失を平滑化するポピュラーなソリューションである。
本稿では,二元マスクによる摂動を効果的かつ効果的に行う訓練手法であるスパースSAMを提案する。
論文 参考訳(メタデータ) (2023-06-30T09:33:41Z) - Make Sharpness-Aware Minimization Stronger: A Sparsified Perturbation
Approach [132.37966970098645]
人気のソリューションの1つがSAM(Sharpness-Aware Minimization)であり、摂動を加える際の体重減少の変化を最小限に抑える。
本稿では,Sparse SAM (SSAM) とよばれる効率的な学習手法を提案する。
さらに、S が同じSAM、すなわち $O(log T/sqrtTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTT で収束できることを理論的に証明する。
論文 参考訳(メタデータ) (2022-10-11T06:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。