論文の概要: TopoLoRA-SAM: Topology-Aware Parameter-Efficient Adaptation of Foundation Segmenters for Thin-Structure and Cross-Domain Binary Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2601.02273v1
- Date: Mon, 05 Jan 2026 17:03:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.289679
- Title: TopoLoRA-SAM: Topology-Aware Parameter-Efficient Adaptation of Foundation Segmenters for Thin-Structure and Cross-Domain Binary Semantic Segmentation
- Title(参考訳): TopoLoRA-SAM:Topology-Aware Parameter-Efficient Adaptation of Foundation Segmenter for Thin-Structure and Cross-Domain Binary Semantic Segmentation
- Authors: Salim Khazem,
- Abstract要約: バイナリセマンティックセグメンテーションのためのトポロジー認識およびパラメータ効率適応フレームワークである textbfTopoLoRA-SAM を提案する。
TopoLoRA-SAMは、軽量空間畳み込みアダプタで強化された冷凍ViTエンコーダにローランド適応(LoRA)を注入する。
TopoLoRA-SAMはCHASE_DB1データセットのセグメンテーション精度とロバスト性を大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation segmentation models such as the Segment Anything Model (SAM) exhibit strong zero-shot generalization through large-scale pretraining, but adapting them to domain-specific semantic segmentation remains challenging, particularly for thin structures (e.g., retinal vessels) and noisy modalities (e.g., SAR imagery). Full fine-tuning is computationally expensive and risks catastrophic forgetting. We propose \textbf{TopoLoRA-SAM}, a topology-aware and parameter-efficient adaptation framework for binary semantic segmentation. TopoLoRA-SAM injects Low-Rank Adaptation (LoRA) into the frozen ViT encoder, augmented with a lightweight spatial convolutional adapter and optional topology-aware supervision via differentiable clDice. We evaluate our approach on five benchmarks spanning retinal vessel segmentation (DRIVE, STARE, CHASE\_DB1), polyp segmentation (Kvasir-SEG), and SAR sea/land segmentation (SL-SSDD), comparing against U-Net, DeepLabV3+, SegFormer, and Mask2Former. TopoLoRA-SAM achieves the best retina-average Dice and the best overall average Dice across datasets, while training only \textbf{5.2\%} of model parameters ($\sim$4.9M). On the challenging CHASE\_DB1 dataset, our method substantially improves segmentation accuracy and robustness, demonstrating that topology-aware parameter-efficient adaptation can match or exceed fully fine-tuned specialist models. Code is available at : https://github.com/salimkhazem/Seglab.git
- Abstract(参考訳): SAM(Segment Anything Model)のような基礎的なセグメンテーションモデルは、大規模な事前訓練を通じて強力なゼロショット一般化を示すが、それをドメイン固有のセグメンテーションに適用することは、特に細い構造(例えば網膜血管)やノイズのあるモダリティ(例えば、SAR画像)において困難である。
完全な微調整は計算に高価であり、破滅的な忘れ込みのリスクがある。
本稿では,二項セマンティックセグメンテーションのためのトポロジカル・アウェアおよびパラメータ効率適応フレームワークである \textbf{TopoLoRA-SAM} を提案する。
TopoLoRA-SAMは、凍結したViTエンコーダにローランド適応(LoRA)を注入し、軽量な空間畳み込みアダプタと、微分可能なclDiceによるトポロジー対応の監視を付加する。
我々は,網膜血管セグメンテーション(DRIVE,STARE,CHASE\_DB1),ポリプセグメンテーション(Kvasir-SEG),SAR海陸セグメンテーション(SL-SSDD)の5つのベンチマークについて,U-Net,DeepLabV3+,SegFormer,Mask2Formerと比較検討した。
TopoLoRA-SAMは、データセット全体で最高の網膜平均Diceと最高の全体平均Diceを達成し、トレーニングはモデルパラメータのtextbf{5.2\%}($\sim$4.9M)のみである。
挑戦的なCHASE\_DB1データセットにおいて,提案手法はセグメンテーション精度とロバスト性を大幅に向上させ,トポロジーを考慮したパラメータ効率適応が完全に微調整されたスペシャリストモデルに適合または超えることを示す。
コードはhttps://github.com/salimkhazem/Seglab.gitで入手できる。
関連論文リスト
- VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel [68.24765319399286]
本稿では,2次元血管セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAMは、(1)局所的なテクスチャ機能を強化する畳み込みアダプタ、(2)解剖学的プロンプトを融合するマルチプロンプトエンコーダ、(3)ジャグアーティファクトを減らす軽量マスクデコーダを統合する。
VesSAMは、最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-02T15:47:05Z) - FS-SAM2: Adapting Segment Anything Model 2 for Few-Shot Semantic Segmentation via Low-Rank Adaptation [1.223288032755885]
SAM2(FS-SAM2)に基づくFew-Shotセグメンテーション手法を提案する。
標準データセットで典型的に見られる多様な画像を扱うために,Low-Rank Adaptation (LoRA) を元のモジュールに適用する。
PASCAL-5$i$, COCO-20$i$, FSS-1000データセット上でFS-SAM2を評価する。
論文 参考訳(メタデータ) (2025-09-15T16:32:31Z) - Rein++: Efficient Generalization and Adaptation for Semantic Segmentation with Vision Foundation Models [47.66611300605174]
Rein++は効率的なVFMベースのセグメンテーションフレームワークである。
これは限られたデータからの優れた一般化を示す。
多様な未ラベルシナリオへの効果的な適応を可能にする。
論文 参考訳(メタデータ) (2025-08-03T08:53:30Z) - Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - OMH: Structured Sparsity via Optimally Matched Hierarchy for Unsupervised Semantic Segmentation [69.37484603556307]
Un Semantic segmenting (USS)は、事前に定義されたラベルに頼ることなく、イメージをセグメント化する。
上記の問題を同時に解決するために,OMH (Optimally Matched Hierarchy) という新しいアプローチを導入する。
我々のOMHは既存のUSS法と比較して教師なしセグメンテーション性能がよい。
論文 参考訳(メタデータ) (2024-03-11T09:46:41Z) - Threshold-adaptive Unsupervised Focal Loss for Domain Adaptation of
Semantic Segmentation [25.626882426111198]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は近年研究の注目を集めている。
本稿では,セマンティックセグメンテーションのための2段階エントロピーに基づくUDA手法を提案する。
本稿では,DeepLabV2を用いたSynTHIA-to-CityscapesとGTA5-to-Cityscapesにおける最先端の58.4%と59.6%のmIoUと,軽量BiSeNetを用いた競合性能を実現する。
論文 参考訳(メタデータ) (2022-08-23T03:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。