論文の概要: Leaf Only SAM: A Segment Anything Pipeline for Zero-Shot Automated Leaf
Segmentation
- arxiv url: http://arxiv.org/abs/2305.09418v2
- Date: Mon, 22 May 2023 09:53:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 02:22:22.866099
- Title: Leaf Only SAM: A Segment Anything Pipeline for Zero-Shot Automated Leaf
Segmentation
- Title(参考訳): leaf only sam: ゼロショット自動リーフセグメンテーションのためのsegment anythingパイプライン
- Authors: Dominic Williams, Fraser Macfarlane, Avril Britten
- Abstract要約: 本稿では,ジャガイモの葉を選別する一連の加工工程とともに,セグメンテーションを併用する手法を提案する。
提案手法の利点は,結果の生成にトレーニングデータを必要としない点にある。
我々は,小型のジャガイモ葉データセットを微調整したMask R-CNNモデルと比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segment Anything Model (SAM) is a new foundation model that can be used as a
zero-shot object segmentation method with the use of either guide prompts such
as bounding boxes, polygons, or points. Alternatively, additional post
processing steps can be used to identify objects of interest after segmenting
everything in an image. Here we present a method using segment anything
together with a series of post processing steps to segment potato leaves,
called Leaf Only SAM. The advantage of this proposed method is that it does not
require any training data to produce its results so has many applications
across the field of plant phenotyping where there is limited high quality
annotated data available. We compare the performance of Leaf Only SAM to a Mask
R-CNN model which has been fine-tuned on our small novel potato leaf dataset.
On the evaluation dataset, Leaf Only SAM finds an average recall of 63.2 and an
average precision of 60.3, compared to recall of 78.7 and precision of 74.7 for
Mask R-CNN. Leaf Only SAM does not perform better than the fine-tuned Mask
R-CNN model on our data, but the SAM based model does not require any extra
training or annotation of our new dataset. This shows there is potential to use
SAM as a zero-shot classifier with the addition of post processing steps.
- Abstract(参考訳): segment anything model(sam)は新しい基盤モデルであり、バウンディングボックス、ポリゴン、ポイントといったガイドプロンプトを使用することで、ゼロショットオブジェクトのセグメンテーションメソッドとして使用できる。
あるいは、画像のすべてを分割した後、興味のあるオブジェクトを識別するために、追加のポスト処理ステップが使用できる。
本稿では,ポテト葉を分節化するための一連の処理ステップとともに,segment anythingを用いた方法であるleaf only samを提案する。
この手法の利点は、結果を生成するのにトレーニングデータを必要としないため、高品質な注釈データに制限のある植物表現型変換の分野に多くの応用があることである。
我々は,小型のジャガイモ葉データセットを微調整したMask R-CNNモデルと比較した。
評価データセットでは、Leaf Only SAM の平均リコールは 63.2 であり、平均精度は 60.3 であり、Mask R-CNN のリコールは 78.7 であり、精度は 74.7 である。
リーフのみSAMは、データ上の微調整されたMask R-CNNモデルよりもパフォーマンスが良くないが、SAMベースのモデルは、新しいデータセットの追加のトレーニングやアノテーションを必要としない。
これは、後処理のステップを追加することで、SAMをゼロショット分類器として使用する可能性があることを示している。
関連論文リスト
- PointSAM: Pointly-Supervised Segment Anything Model for Remote Sensing Images [16.662173255725463]
本稿では,PointSAM という新しいセグメンテーションモデルを提案する。
我々は, WHU, HRSID, NWPU VHR-10を含むRSIデータセットの実験を行った。
その結果,本手法はSAM,SAM2,その他の比較法で直接試験よりも優れていた。
論文 参考訳(メタデータ) (2024-09-20T11:02:18Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Moving Object Segmentation: All You Need Is SAM (and Flow) [82.78026782967959]
SAMのセグメンテーション能力と移動物体の発見・グループ化能力を利用する光フローとSAMを組み合わせた2つのモデルについて検討する。
第1のモデルでは、RGBではなく光の流れを入力としてSAMに適応させ、第2のモデルではRGBを入力として、フローをセグメント化プロンプトとして使用する。
これらの驚くほど単純な方法は、追加の修正なしに、シングルオブジェクトとマルチオブジェクトのベンチマークにおいて、以前のアプローチをかなり上回っている。
論文 参考訳(メタデータ) (2024-04-18T17:59:53Z) - Adapting the Segment Anything Model During Usage in Novel Situations [12.999518604217853]
本稿では,最近公開されたSegment Anything Model(SAM)を即時使用時に適用するためのフレームワークを提案する。
提案された方法は、$textFR_20@85$で48.1 %、$textFR_30@90$で$46.6 %の相対還元を引き起こす。
論文 参考訳(メタデータ) (2024-04-12T12:10:53Z) - WSI-SAM: Multi-resolution Segment Anything Model (SAM) for histopathology whole-slide images [8.179859593451285]
病理画像の正確なオブジェクト分割機能を備えたWSI-SAM, Segment Anything Model (SAM) を提案する。
トレーニングオーバーヘッドを最小限にしながら、トレーニング済みの知識を完全に活用するために、SAMは凍結し、最小限のパラメータしか導入しません。
本モデルでは, 膵管癌 in situ (DCIS) セグメンテーションタスクと乳癌転移セグメンテーションタスクにおいて, SAMを4.1, 2.5パーセント上回った。
論文 参考訳(メタデータ) (2024-03-14T10:30:43Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [76.21007576954035]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
本研究は,まず,軽量学生モデルを蒸留するためのハードプロンプトサンプリングとハードマスク重み付け戦略を用いた,フルステージの知識蒸留法を提案する。
また、学習後の量子化を高速化可能なセグメンテーションタスクに適用し、計算コストをさらに削減する。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - How to Efficiently Adapt Large Segmentation Model(SAM) to Medical Images [15.181219203629643]
Segment Anything (SAM)は、自然画像のゼロショットセグメンテーションにおいて印象的な機能を示す。
しかし、医療画像に適用すると、SAMは顕著なパフォーマンス低下に悩まされる。
本研究では,SAMエンコーダを凍結し,軽量なタスク固有予測ヘッドを微調整することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:34:30Z) - TomoSAM: a 3D Slicer extension using SAM for tomography segmentation [62.997667081978825]
TomoSAMは、最先端のSegment Anything Model(SAM)を3Dスライダに統合するために開発された。
SAMは、オブジェクトを識別し、ゼロショットで画像マスクを作成することができる、迅速なディープラーニングモデルである。
これらのツール間のシナジーは、トモグラフィや他のイメージング技術からの複雑な3Dデータセットのセグメンテーションに役立つ。
論文 参考訳(メタデータ) (2023-06-14T16:13:27Z) - Segment Anything in High Quality [116.39405160133315]
そこで本研究では,SAM のプロンプト可能な設計,効率,ゼロショットの一般化性を維持しつつ,任意のオブジェクトを正確にセグメント化できる HQ-SAM を提案する。
注意深い設計はSAMの事前訓練されたモデルの重みを再利用し、保存し、最小限の追加パラメータと計算しか導入しない。
ダウンストリームタスクにまたがる10種類のセグメンテーションデータセットでHQ-SAMの有効性を示し,そのうち8つをゼロショット転送プロトコルで評価した。
論文 参考訳(メタデータ) (2023-06-02T14:23:59Z) - Personalize Segment Anything Model with One Shot [52.54453744941516]
我々は,Segment Anything Model (SAM) のためのトレーニング不要なパーソナライズ手法を提案する。
PerSAMは、参照マスクを持つ1つのイメージしか持たないため、最初にターゲットのコンセプトを以前のロケーションでローカライズする。
PerSAMは、ターゲット誘導された注意、ターゲットセマンティックなプロンプト、そしてカスケードされたポストリファインメントという3つのテクニックを通じて、他の画像やビデオにセグメントする。
論文 参考訳(メタデータ) (2023-05-04T17:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。