論文の概要: Guided SAM: Label-Efficient Part Segmentation
- arxiv url: http://arxiv.org/abs/2501.07434v1
- Date: Mon, 13 Jan 2025 16:02:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:24:03.730204
- Title: Guided SAM: Label-Efficient Part Segmentation
- Title(参考訳): Guided SAM: ラベル効率の良い部分分割
- Authors: S. B. van Rooij, G. J. Burghouts,
- Abstract要約: オブジェクト部品の正確な位置決めは、オブジェクト認識やロボット操作といったタスクに不可欠である。
最近のパートセグメンテーション手法は、広範なトレーニングデータと労働集約アノテーションを必要とする。
本稿では,Segment-Anything Model (SAM) を関連オブジェクトへ誘導する新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Localizing object parts precisely is essential for tasks such as object recognition and robotic manipulation. Recent part segmentation methods require extensive training data and labor-intensive annotations. Segment-Anything Model (SAM) has demonstrated good performance on a wide range of segmentation problems, but requires (manual) positional prompts to guide it where to segment. Furthermore, since it has been trained on full objects instead of object parts, it is prone to over-segmentation of parts. To address this, we propose a novel approach that guides SAM towards the relevant object parts. Our method learns positional prompts from coarse patch annotations that are easier and cheaper to acquire. We train classifiers on image patches to identify part classes and aggregate patches into regions of interest (ROIs) with positional prompts. SAM is conditioned on these ROIs and prompts. This approach, termed `Guided SAM', enhances efficiency and reduces manual effort, allowing effective part segmentation with minimal labeled data. We demonstrate the efficacy of Guided SAM on a dataset of car parts, improving the average IoU on state of the art models from 0.37 to 0.49 with annotations that are on average five times more efficient to acquire.
- Abstract(参考訳): オブジェクト部品の正確な位置決めは、オブジェクト認識やロボット操作といったタスクに不可欠である。
最近のパートセグメンテーション手法は、広範なトレーニングデータと労働集約アノテーションを必要とする。
Segment-Anything Model (SAM)は、幅広いセグメンテーション問題に対して優れた性能を示してきたが、セグメンテーションの場所を案内するためには(手動で)位置プロンプトが必要である。
さらに、オブジェクトのパーツではなく、完全なオブジェクトでトレーニングされているため、部品の過剰な分離がちである。
そこで本研究では,SAMを対象部品へ誘導する新しいアプローチを提案する。
提案手法は, より容易かつ安価に取得できる粗いパッチアノテーションから, 位置的プロンプトを学習する。
イメージパッチに分類器を訓練し、部分クラスを特定し、位置プロンプトで関心領域(ROI)にパッチを集約する。
SAMはこれらのROIとプロンプトに条件付けされている。
このアプローチは‘Guided SAM’と呼ばれ、効率を高め、手作業を減らすことで、最小ラベル付きデータによる効果的な部分分割を可能にする。
カー部品のデータセット上での Guided SAM の有効性を実証し、最先端モデルにおける平均 IoU を 0.37 から 0.49 に改善し、平均 5 倍の効率で取得できるアノテーションを提示する。
関連論文リスト
- SAM Carries the Burden: A Semi-Supervised Approach Refining Pseudo Labels for Medical Segmentation [1.342749532731493]
我々は、Segment Anything Modelの抽象オブジェクト理解を医用画像セグメンテーションに活用し、半教師付き学習のための擬似ラベルを提供する。
提案手法は,注釈付きデータの限られた量から得られる初期セグメンテーションを改良する。
本手法は,強度に基づく後処理法より優れる。
論文 参考訳(メタデータ) (2024-11-19T16:06:21Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - WPS-SAM: Towards Weakly-Supervised Part Segmentation with Foundation Models [43.27699553774037]
Weakly-supervised Part (WPS) と WPS-SAM という手法を提案する。
WPS-SAMは画像から直接プロンプトトークンを抽出し、部分領域のピクセルレベルのセグメンテーションを実行するために設計されたエンドツーエンドフレームワークである。
実験により、事前訓練された基礎モデルに埋め込まれた豊富な知識を利用することで、WPS-SAMはピクセルレベルの強いアノテーションで訓練された他のセグメンテーションモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-07-14T09:31:21Z) - Moving Object Segmentation: All You Need Is SAM (and Flow) [82.78026782967959]
SAMのセグメンテーション能力と移動物体の発見・グループ化能力を利用する光フローとSAMを組み合わせた2つのモデルについて検討する。
第1のモデルでは、RGBではなく光の流れを入力としてSAMに適応させ、第2のモデルではRGBを入力として、フローをセグメント化プロンプトとして使用する。
これらの驚くほど単純な方法は、追加の修正なしに、シングルオブジェクトとマルチオブジェクトのベンチマークにおいて、以前のアプローチをかなり上回っている。
論文 参考訳(メタデータ) (2024-04-18T17:59:53Z) - Segment and Caption Anything [126.20201216616137]
本稿では,地域キャプションを生成する機能を備えたセグメンション・アプライシング・モデルを提案する。
軽量なクエリベースの機能ミキサーを導入することで、地域固有の特徴と、後続キャプション生成のための言語モデルの埋め込み空間を整合させる。
提案手法の優位性を実証し,それぞれの設計選択を検証するために,広範な実験を行う。
論文 参考訳(メタデータ) (2023-12-01T19:00:17Z) - Self-guided Few-shot Semantic Segmentation for Remote Sensing Imagery
Based on Large Vision Models [14.292149307183967]
本研究は,少数ショットセマンティックセグメンテーションの自動化を目的とした構造化フレームワークを提案する。
SAMモデルを利用して、意味的に識別可能なセグメンテーションの結果をより効率的に生成する。
提案手法の中心は,従来のガイドマスクを利用してSAMの粗い画素単位のプロンプトを生成する,新しい自動プロンプト学習手法である。
論文 参考訳(メタデータ) (2023-11-22T07:07:55Z) - Segment Anything Model is a Good Teacher for Local Feature Learning [19.66262816561457]
局所的な特徴の検出と記述は多くのコンピュータビジョンタスクにおいて重要な役割を果たす。
データ駆動型局所特徴学習手法は、訓練にピクセルレベルの対応に頼る必要がある。
本研究では,SAMFeatを教師として導入し,局所的な特徴学習の指導を行う。
論文 参考訳(メタデータ) (2023-09-29T05:29:20Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - RefSAM: Efficiently Adapting Segmenting Anything Model for Referring Video Object Segmentation [53.4319652364256]
本稿では,ビデオオブジェクトのセグメンテーションを参照するためのSAMの可能性を探るRefSAMモデルを提案する。
提案手法は,Cross-RValModalを用いることで,モダリティ学習を向上させるためにオリジナルのSAMモデルに適応する。
我々は、言語と視覚の特徴を効果的に調整し、融合させるために、パラメータ効率のチューニング戦略を採用している。
論文 参考訳(メタデータ) (2023-07-03T13:21:58Z) - FreeSOLO: Learning to Segment Objects without Annotations [191.82134817449528]
我々は,単純なインスタンスセグメンテーションメソッドSOLO上に構築された自己教師型インスタンスセグメンテーションフレームワークであるFreeSOLOを紹介する。
また,本手法では,複雑なシーンからオブジェクトを教師なしで検出する,新たなローカライズ対応事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-24T16:31:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。