論文の概要: WeakSAM: Segment Anything Meets Weakly-supervised Instance-level
Recognition
- arxiv url: http://arxiv.org/abs/2402.14812v1
- Date: Thu, 22 Feb 2024 18:59:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 13:56:04.528555
- Title: WeakSAM: Segment Anything Meets Weakly-supervised Instance-level
Recognition
- Title(参考訳): WeakSAM:Segment Anythingが弱教師付きインスタンスレベルの認識に遭遇
- Authors: Lianghui Zhu, Junwei Zhou, Yan Liu, Xin Hao, Wenyu Liu, Xinggang Wang
- Abstract要約: 不正確な監督を用いた弱々しい教師付き視覚認識は、批判的ながら困難な学習問題である。
本稿では、WeakSAMを導入し、ビジョン基礎モデルに含まれる事前学習された世界知識、すなわち、セグメンツ・アシング・モデル(SAM)を利用して、弱教師付きオブジェクト検出(WSOD)とセグメンテーションを解決する。
WeakSAMは、WSODおよびWSISベンチマークにおいて、それぞれ7.4%と8.5%の平均的な改善という大きなマージンを持つ従来の最先端手法を著しく上回っている。
- 参考スコア(独自算出の注目度): 40.711009448103354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly supervised visual recognition using inexact supervision is a critical
yet challenging learning problem. It significantly reduces human labeling costs
and traditionally relies on multi-instance learning and pseudo-labeling. This
paper introduces WeakSAM and solves the weakly-supervised object detection
(WSOD) and segmentation by utilizing the pre-learned world knowledge contained
in a vision foundation model, i.e., the Segment Anything Model (SAM). WeakSAM
addresses two critical limitations in traditional WSOD retraining, i.e., pseudo
ground truth (PGT) incompleteness and noisy PGT instances, through adaptive PGT
generation and Region of Interest (RoI) drop regularization. It also addresses
the SAM's problems of requiring prompts and category unawareness for automatic
object detection and segmentation. Our results indicate that WeakSAM
significantly surpasses previous state-of-the-art methods in WSOD and WSIS
benchmarks with large margins, i.e. average improvements of 7.4% and 8.5%,
respectively. The code is available at \url{https://github.com/hustvl/WeakSAM}.
- Abstract(参考訳): inexact supervisorを用いた弱い教師付き視覚認識は、批判的だが挑戦的な学習問題である。
これは人間のラベル付けコストを大幅に削減し、伝統的にマルチインスタンス学習と擬似ラベルに依存している。
本稿では、WeakSAMを紹介し、ビジョン基礎モデルに含まれる事前学習された世界知識、すなわちSAM(Seegment Anything Model)を利用して、弱教師付きオブジェクト検出(WSOD)とセグメンテーションを解決する。
WeakSAMは、従来のWSODリトレーニングにおける2つの重要な制限、すなわち擬似基底真理(PGT)の不完全性とノイズの多いPGTインスタンスに適応PGT生成とRerea of Interest(RoI)ドロップ正規化を通じて対処する。
また、SAMが自動オブジェクト検出とセグメンテーションのためにプロンプトやカテゴリを意識しないという問題にも対処している。
WeakSAMは、WSODおよびWSISベンチマークにおいて、それぞれ7.4%と8.5%の平均的な改善という大きなマージンを持つ従来の最先端手法を著しく上回っている。
コードは \url{https://github.com/hustvl/WeakSAM} で公開されている。
関連論文リスト
- Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - Crowd-SAM: SAM as a Smart Annotator for Object Detection in Crowded Scenes [18.244508068200236]
Crowd-SAMは、混み合ったシーンでSAMのパフォーマンスを高めるために設計されたフレームワークである。
混み合ったシーンにおけるマスク選択と精度を高めるために,効率的なプロンプトサンプリング (EPS) とPWD-Net (Part-whole discrimination network) を導入する。
Crowd-SAMは、CrowdHumanやCityPersonsなどいくつかのベンチマークにおいて、最先端のSOTA(State-of-the-art)と競合する。
論文 参考訳(メタデータ) (2024-07-16T08:00:01Z) - SAM-PM: Enhancing Video Camouflaged Object Detection using Spatio-Temporal Attention [0.0]
Segment Anything Model (SAM) は画像セグメンテーションにおける異常な性能で注目されている。
カモフラージュされた物体は一般的に背景に溶け込み、静止画では区別が難しい。
これらの課題を克服するために,SAMスパイダーモジュール (SAM-PM) と呼ばれる新しい手法を提案する。
本手法は,SAMのパラメータの1%未満の追加で,時間的一貫性とドメイン固有の専門知識をセグメンテーションネットワークに効果的に組み込む。
論文 参考訳(メタデータ) (2024-06-09T14:33:38Z) - AlignSAM: Aligning Segment Anything Model to Open Context via Reinforcement Learning [61.666973416903005]
Segment Anything Model (SAM)は、オープンワールドシナリオにおいて、プロンプトのガイダンスによって、その印象的な一般化機能を実証した。
オープンコンテキストにSAMをアライメントするための自動プロンプトのための新しいフレームワークAlignSAMを提案する。
論文 参考訳(メタデータ) (2024-06-01T16:21:39Z) - BLO-SAM: Bi-level Optimization Based Overfitting-Preventing Finetuning
of SAM [37.1263294647351]
BLO-SAMを導入し、二段階最適化(BLO)に基づいてSAM(Segment Anything Model)を微調整する。
BLO-SAMは、モデルの重みパラメータのトレーニングと、トレーニングデータセットの2つの別々のサブセットへの迅速な埋め込みによって、過適合のリスクを低減する。
その結果、BLO-SAMは様々な最先端画像セマンティックセグメンテーション法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-26T06:36:32Z) - ImbSAM: A Closer Look at Sharpness-Aware Minimization in
Class-Imbalanced Recognition [62.20538402226608]
シャープネス・アウェアの最小化(SAM)は,クラス不均衡条件下での一般化問題に対処できないことを示す。
このボトルネックを克服するために,Im Balanced-SAM (ImbSAM) というクラス認識スムーズネス最適化アルゴリズムを提案する。
我々のImbSAMは、テールクラスと異常に対する顕著なパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2023-08-15T14:46:32Z) - SAM Meets Robotic Surgery: An Empirical Study on Generalization,
Robustness and Adaptation [15.995869434429274]
Segment Anything Model (SAM) はセグメンテーションの基本モデルとして機能する。
ロボット外科領域におけるSAMの頑健性とゼロショットの一般化性について検討した。
論文 参考訳(メタデータ) (2023-08-14T14:09:41Z) - On the Robustness of Segment Anything [46.669794757467166]
我々は, SAMの試験時間ロバスト性について, 敵のシナリオと共通の腐敗下で検討することを目的としている。
SAMは、ぼやけた汚職を除いて、様々な汚職に対して顕著な堅牢性を示す。
論文 参考訳(メタデータ) (2023-05-25T16:28:30Z) - Weakly Supervised Person Search with Region Siamese Networks [65.76237418040071]
教師付き学習は人検索において支配的であるが、境界ボックスとアイデンティティの詳細なラベル付けが必要である。
私たちは、バウンディングボックスアノテーションのみが利用できる弱い教師付き設定を提示します。
我々のモデルはCUHK-SYSUベンチマークで87.1%のランク1と86.0%のmAPを達成している。
論文 参考訳(メタデータ) (2021-09-13T16:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。