論文の概要: SAM3-UNet: Simplified Adaptation of Segment Anything Model 3
- arxiv url: http://arxiv.org/abs/2512.01789v1
- Date: Mon, 01 Dec 2025 15:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.924958
- Title: SAM3-UNet: Simplified Adaptation of Segment Anything Model 3
- Title(参考訳): SAM3-UNet:Segment Anything Model 3の簡易適応
- Authors: Xinyu Xiong, Zihuang Wu, Lei Lu, Yufa Xia,
- Abstract要約: 本稿では,Segment Anything Model 3 (SAM3) の簡易版であるSAM3-UNetについて紹介する。
我々のSAM3-UNetは、SAM3イメージエンコーダ、パラメータ効率の良い微調整用アダプタ、軽量なU-Netスタイルデコーダの3つのコンポーネントから構成されている。
ミラー検出や有能な物体検出などの複数のタスクに関する予備実験は、提案されたSAM3-UNetが以前のSAM2-UNetや他の最先端手法よりも優れていることを示した。
- 参考スコア(独自算出の注目度): 7.967770298472821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce SAM3-UNet, a simplified variant of Segment Anything Model 3 (SAM3), designed to adapt SAM3 for downstream tasks at a low cost. Our SAM3-UNet consists of three components: a SAM3 image encoder, a simple adapter for parameter-efficient fine-tuning, and a lightweight U-Net-style decoder. Preliminary experiments on multiple tasks, such as mirror detection and salient object detection, demonstrate that the proposed SAM3-UNet outperforms the prior SAM2-UNet and other state-of-the-art methods, while requiring less than 6 GB of GPU memory during training with a batch size of 12. The code is publicly available at https://github.com/WZH0120/SAM3-UNet.
- Abstract(参考訳): 本稿では,Segment Anything Model 3 (SAM3) の簡易版であるSAM3-UNetについて紹介する。
我々のSAM3-UNetは、SAM3イメージエンコーダ、パラメータ効率の良い微調整用アダプタ、軽量なU-Netスタイルデコーダの3つのコンポーネントから構成されている。
ミラー検出や有能なオブジェクト検出など、複数のタスクに関する予備的な実験では、提案されたSAM3-UNetが、以前のSAM2-UNetや他の最先端メソッドよりも優れており、バッチサイズ12のトレーニング中に6GB未満のGPUメモリを必要とすることが示されている。
コードはhttps://github.com/WZH0120/SAM3-UNetで公開されている。
関連論文リスト
- SAM3-Adapter: Efficient Adaptation of Segment Anything 3 for Camouflage Object Segmentation, Shadow Detection, and Medical Image Segmentation [32.83748804164955]
Segment Anything 3 (SAM3)はアーキテクチャを再設計し、トレーニングパイプラインを改善した、より効率的で高性能な進化だ。
SAM3用の最初のアダプタフレームワークであるSAM3-Adapterは、その完全なセグメンテーション機能をアンロックする。
論文 参考訳(メタデータ) (2025-11-24T18:57:54Z) - SAM2-UNet: Segment Anything 2 Makes Strong Encoder for Natural and Medical Image Segmentation [51.90445260276897]
我々は,Segment Anything Model 2 (SAM2) がU字型セグメンテーションモデルの強力なエンコーダであることを証明した。
本稿では, SAM2-UNet と呼ばれる, 汎用画像分割のための簡易かつ効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T17:55:38Z) - TS-SAM: Fine-Tuning Segment-Anything Model for Downstream Tasks [10.75125721857487]
微調整されたSAMとドメイン固有のモデルの間には、依然として大きなパフォーマンスギャップがあります。
本稿では,SAM の強力な特徴をサイドネットワークトレーニングに統合し,包括的特徴融合を実現する Two-Stream SAM (TS-SAM) を提案する。
3つのタスクから得られた10の公開データセットに対する大規模な実験により、TS-SAMは、最近提案されたSAM-AdapterとSSOMよりも大幅に優れているだけでなく、SOTAドメイン固有のモデルとの競合性能も達成している。
論文 参考訳(メタデータ) (2024-08-03T18:08:51Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [73.06322749886483]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
これらすべての提案手法により、TinySAMは計算量を大幅に削減し、エンベロープを効率的なセグメント化タスクにプッシュする。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - EdgeSAM: Prompt-In-the-Loop Distillation for SAM [87.52687622659904]
EdgeSAMはSegment Anything Model (SAM)の高速化版である。
我々のアプローチは、VTベースのSAMイメージエンコーダを純粋にCNNベースのアーキテクチャに蒸留することである。
これは、iPhone 14で30FPS以上で動作可能なSAMの最初の派生機種である。
論文 参考訳(メタデータ) (2023-12-11T18:59:52Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - Faster Segment Anything: Towards Lightweight SAM for Mobile Applications [47.177751899636164]
この作業は、重い画像エンコーダを軽量なものに置き換えることで、Segment Anything Model(SAM)をモバイルフレンドリーにすることを目的としている。
我々は、重画像エンコーダから軽量画像エンコーダに知識を蒸留し、元のSAMのマスクデコーダと自動的に互換性を持たせる。
結果として生じる軽量SAMはMobileSAMと呼ばれ、これは60倍以上小さいが、オリジナルのSAMと同等に動作する。
論文 参考訳(メタデータ) (2023-06-25T16:37:25Z) - How to Efficiently Adapt Large Segmentation Model(SAM) to Medical Images [15.181219203629643]
Segment Anything (SAM)は、自然画像のゼロショットセグメンテーションにおいて印象的な機能を示す。
しかし、医療画像に適用すると、SAMは顕著なパフォーマンス低下に悩まされる。
本研究では,SAMエンコーダを凍結し,軽量なタスク固有予測ヘッドを微調整することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。