論文の概要: Zero-Shot Edge Detection with SCESAME: Spectral Clustering-based
Ensemble for Segment Anything Model Estimation
- arxiv url: http://arxiv.org/abs/2308.13779v2
- Date: Sat, 18 Nov 2023 12:41:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 18:23:42.056175
- Title: Zero-Shot Edge Detection with SCESAME: Spectral Clustering-based
Ensemble for Segment Anything Model Estimation
- Title(参考訳): SCESAMEによるゼロショットエッジ検出: セグメンテーションモデル推定のためのスペクトルクラスタリングに基づくアンサンブル
- Authors: Hiroaki Yamagiwa, Yusuke Takase, Hiroyuki Kambe, Ryosuke Nakamoto
- Abstract要約: 本稿では,最近提案されたSegment Anything Model(SAM)に基づく,SCESAMEを用いたゼロショットエッジ検出手法を提案する。
AMGはエッジ検出に適用できるが、エッジの過剰検出の問題に悩まされる。
我々はBSDS500とNYUDv2の2つのデータセットでエッジ検出実験を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel zero-shot edge detection with SCESAME, which
stands for Spectral Clustering-based Ensemble for Segment Anything Model
Estimation, based on the recently proposed Segment Anything Model (SAM). SAM is
a foundation model for segmentation tasks, and one of the interesting
applications of SAM is Automatic Mask Generation (AMG), which generates
zero-shot segmentation masks of an entire image. AMG can be applied to edge
detection, but suffers from the problem of overdetecting edges. Edge detection
with SCESAME overcomes this problem by three steps: (1) eliminating small
generated masks, (2) combining masks by spectral clustering, taking into
account mask positions and overlaps, and (3) removing artifacts after edge
detection. We performed edge detection experiments on two datasets, BSDS500 and
NYUDv2. Although our zero-shot approach is simple, the experimental results on
BSDS500 showed almost identical performance to human performance and CNN-based
methods from seven years ago. In the NYUDv2 experiments, it performed almost as
well as recent CNN-based methods. These results indicate that our method
effectively enhances the utility of SAM and can be a new direction in zero-shot
edge detection methods.
- Abstract(参考訳): 本稿では,SCESAMEを用いた新たなゼロショットエッジ検出法を提案する。SCESAMEは,Segment Anything Model(SAM)に基づくSegment Anything Model Estimationのためのスペクトルクラスタリングに基づくアンサンブルである。
SAMはセグメンテーションタスクの基礎モデルであり、SAMの興味深い応用の1つは、画像全体のゼロショットセグメンテーションマスクを生成する自動マスク生成(AMG)である。
AMGはエッジ検出に適用できるが、エッジの過剰検出の問題に悩まされる。
SCESAMEによるエッジ検出は,(1)小さなマスクの除去,(2)スペクトルクラスタリングによるマスクの組み合わせ,(2)マスクの位置と重なりを考慮した,(3)エッジ検出後のアーティファクトの除去という3つのステップでこの問題を克服する。
bsds500とnyudv2の2つのデータセットでエッジ検出実験を行った。
我々のゼロショットアプローチは単純だが、BSDS500の実験結果は7年前の人間のパフォーマンスとCNNベースの手法とほぼ同じ性能を示した。
NYUDv2実験では、最近のCNNベースの手法とほぼ同等の性能を発揮した。
これらの結果から,本手法はSAMの有用性を効果的に向上し,ゼロショットエッジ検出法における新たな方向となる可能性が示唆された。
関連論文リスト
- Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - PointSAM: Pointly-Supervised Segment Anything Model for Remote Sensing Images [16.662173255725463]
本稿では,PointSAM という新しいセグメンテーションモデルを提案する。
我々は, WHU, HRSID, NWPU VHR-10を含むRSIデータセットの実験を行った。
その結果,本手法はSAM,SAM2,その他の比較法で直接試験よりも優れていた。
論文 参考訳(メタデータ) (2024-09-20T11:02:18Z) - From Generalization to Precision: Exploring SAM for Tool Segmentation in
Surgical Environments [7.01085327371458]
セグメンテーションモデルでは, 汚損レベルの高い画像が大幅に過大評価され, 性能が低下する。
我々は,最高の単一マスクを予測として選択した場合のSAMの結果を分析するために,接地型ツールマスクを用いている。
本研究では,様々な強みの合成汚損データを用いて,Endovis18とEndovis17の計器セグメンテーションデータセットを解析した。
論文 参考訳(メタデータ) (2024-02-28T01:33:49Z) - Monte Carlo Linear Clustering with Single-Point Supervision is Enough
for Infrared Small Target Detection [48.707233614642796]
SIRST(Single-frame infrared small target)検出は、赤外線画像上の乱雑な背景から小さなターゲットを分離することを目的としている。
ディープラーニングに基づく手法は、SIRST検出において有望な性能を達成したが、大量のトレーニングデータを犠牲にしている。
単一点監視を用いたSIRST検出のための最初の手法を提案する。
論文 参考訳(メタデータ) (2023-04-10T08:04:05Z) - Cut and Learn for Unsupervised Object Detection and Instance
Segmentation [65.43627672225624]
Cut-and-LeaRn(CutLER)は、教師なしオブジェクトの検出とセグメンテーションモデルをトレーニングするためのシンプルなアプローチである。
CutLERはゼロショット非監視検出器であり、11のベンチマークでAP50を2.7倍以上改善している。
論文 参考訳(メタデータ) (2023-01-26T18:57:13Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Object Detection Made Simpler by Eliminating Heuristic NMS [70.93004137521946]
単純なNMSのないエンドツーエンドのオブジェクト検出フレームワークを示す。
検出精度は元の1段検出器と比べて同等か、さらに向上した。
論文 参考訳(メタデータ) (2021-01-28T02:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。