論文の概要: Geometric Feature Prompting of Image Segmentation Models
- arxiv url: http://arxiv.org/abs/2505.21644v1
- Date: Tue, 27 May 2025 18:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.225167
- Title: Geometric Feature Prompting of Image Segmentation Models
- Title(参考訳): 画像分割モデルの幾何学的特徴プロンプト
- Authors: Kenneth Ball, Erin Taylor, Nirav Patel, Andrew Bartels, Gary Koplik, James Polly, Jay Hineman,
- Abstract要約: セグメンテーション・アズ・モデル(SAM)は、自然画像のセグメンテーションのための非常に有能な基礎モデルである。
本稿では、幾何学的に動機づけたプロンプトジェネレータを用いて、特定の特徴を持つプロンプトポイントを生成することを提案する。
画像解析の課題は、リゾトロンまたはミニリゾトロン画像における植物の根のセグメンテーションである。
- 参考スコア(独自算出の注目度): 1.955246666333841
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Advances in machine learning, especially the introduction of transformer architectures and vision transformers, have led to the development of highly capable computer vision foundation models. The segment anything model (known colloquially as SAM and more recently SAM 2), is a highly capable foundation model for segmentation of natural images and has been further applied to medical and scientific image segmentation tasks. SAM relies on prompts -- points or regions of interest in an image -- to generate associated segmentations. In this manuscript we propose the use of a geometrically motivated prompt generator to produce prompt points that are colocated with particular features of interest. Focused prompting enables the automatic generation of sensitive and specific segmentations in a scientific image analysis task using SAM with relatively few point prompts. The image analysis task examined is the segmentation of plant roots in rhizotron or minirhizotron images, which has historically been a difficult task to automate. Hand annotation of rhizotron images is laborious and often subjective; SAM, initialized with GeomPrompt local ridge prompts has the potential to dramatically improve rhizotron image processing. The authors have concurrently released an open source software suite called geomprompt https://pypi.org/project/geomprompt/ that can produce point prompts in a format that enables direct integration with the segment-anything package.
- Abstract(参考訳): 機械学習の進歩、特にトランスフォーマーアーキテクチャとビジョントランスフォーマーの導入は、高機能なコンピュータビジョン基盤モデルの開発につながった。
セグメンテーション・アズ・モデル(SAM2)は、自然画像のセグメンテーションのための高度な基礎モデルであり、医学的および科学的な画像セグメンテーション・タスクにさらに応用されている。
SAMは関連するセグメンテーションを生成するためのプロンプト -- 画像のポイントや領域 -- に依存している。
本稿では、幾何学的に動機づけられたプロンプトジェネレータを用いて、特定の特徴と一致するプロンプトポイントを生成することを提案する。
フォーカスプロンプトにより、SAMを用いた科学画像解析タスクにおいて、比較的少ないポイントプロンプトでセンシティブなセグメンテーションと特定のセグメンテーションの自動生成が可能となる。
画像解析の課題は、歴史的に自動化が難しいリゾトロン画像やミニリゾトロン画像における植物の根の分節化である。
SAMはGeomPromptの局所尾根プロンプトで初期化され、リゾトロン画像処理を劇的に改善する可能性がある。
著者らはgeomprompt https://pypi.org/project/geomprompt/というオープンソースのソフトウェアスイートを同時にリリースした。
関連論文リスト
- DC-SAM: In-Context Segment Anything in Images and Videos via Dual Consistency [91.30252180093333]
In-context segmentation に SAM と SAM2 を適応させるプロンプトチューニングに基づく Dual Consistency SAM (DCSAM) 法を提案する。
我々の重要な洞察は、高品質な視覚的プロンプトを提供することにより、SAMのセグメンテーションにおけるプロンプトエンコーダの機能を強化することである。
提案したDC-SAMは主に画像用に設計されているが、SAM2のサポートによりビデオ領域にシームレスに拡張できる。
論文 参考訳(メタデータ) (2025-04-16T13:41:59Z) - Image Segmentation in Foundation Model Era: A Survey [95.60054312319939]
イメージセグメンテーションにおける現在の研究は、異なる特徴、課題、解決策の詳細な分析を欠いている。
本調査は、FM駆動画像セグメンテーションを中心とした最先端の研究を徹底的にレビューすることで、このギャップを埋めようとしている。
現在の研究成果の広さを包括する,300以上のセグメンテーションアプローチの概要を概観する。
論文 参考訳(メタデータ) (2024-08-23T10:07:59Z) - NuSegDG: Integration of Heterogeneous Space and Gaussian Kernel for Domain-Generalized Nuclei Segmentation [9.332333405703732]
我々はNuSegDGと略して、核画像分割のためのドメイン一般化可能なフレームワークを提案する。
HS-AdapterはSAMの画像エンコーダに少数のトレーニング可能なパラメータを注入することで、異なる核ドメインの多次元特徴表現を学習する。
GKP-エンコーダは1つの点によって駆動される密度マップを生成し、位置プロンプトと意味プロンプトを混合することによってセグメント化予測を導く。
論文 参考訳(メタデータ) (2024-08-21T17:19:23Z) - Guided Prompting in SAM for Weakly Supervised Cell Segmentation in
Histopathological Images [27.14641973632063]
本稿では、セグメンタを誘導するために、関連するタスクからのアノテーションである弱い監視を使用することに焦点を当てる。
SAM(Segment Anything)のような最近の基礎モデルは、推論中に追加の監視を活用するためにプロンプトを使用することができる。
すべてのSAMベースのソリューションは、既存の弱教師付きイメージセグメンテーションモデルを大幅に上回り、9~15 ptのDiceゲインを得る。
論文 参考訳(メタデータ) (2023-11-29T11:18:48Z) - Segment anything, from space? [8.126645790463266]
SAM(Segment Anything Model)は、安価な入力プロンプトに基づいて、入力画像中のオブジェクトをセグメント化することができる。
SAMは通常、目標タスクで訓練された視覚モデルに似た、あるいは時として超えた認識精度を達成した。
SAMの性能が画像のオーバーヘッド問題にまで及んでいるかどうかを考察し、その開発に対するコミュニティの反応を導くのに役立てる。
論文 参考訳(メタデータ) (2023-04-25T17:14:36Z) - Input Augmentation with SAM: Boosting Medical Image Segmentation with
Segmentation Foundation Model [36.015065439244495]
Segment Anything Model (SAM) はコンピュータビジョンタスクのための汎用セグメンテーションのための大規模モデルである。
SAMは100万枚の画像と10億枚以上のマスクを使って訓練され、自然の風景画像に広範囲のオブジェクトのセグメンテーション結果を生成することができる。
本報告では,SAMは医用画像データに高品質なセグメンテーションを提供していないが,その生成マスク,特徴,安定性スコアは,より優れた医用画像セグメンテーションモデルの構築と訓練に有用であることを示す。
論文 参考訳(メタデータ) (2023-04-22T07:11:53Z) - Prompt-Based Multi-Modal Image Segmentation [81.58378196535003]
テスト時に任意のプロンプトに基づいて画像セグメンテーションを生成するシステムを提案する。
プロンプトはテキストかイメージのいずれかでもよい。
私たちはCLIPモデルをバックボーンとして構築し、トランスフォーマーベースのデコーダで拡張します。
論文 参考訳(メタデータ) (2021-12-18T21:27:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。