論文の概要: Towards PerSense++: Advancing Training-Free Personalized Instance Segmentation in Dense Images
- arxiv url: http://arxiv.org/abs/2508.14660v1
- Date: Wed, 20 Aug 2025 12:23:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.447835
- Title: Towards PerSense++: Advancing Training-Free Personalized Instance Segmentation in Dense Images
- Title(参考訳): PerSense++に向けて:Dense Imagesにおけるトレーニング不要なパーソナライズされたインスタンスセグメンテーションの改善
- Authors: Muhammad Ibraheem Siddiqui, Muhammad Umer Sheikh, Hassan Abid, Kevin Henry, Muhammad Haris Khan,
- Abstract要約: PerSenseは、例えば高密度画像において、エンドツーエンド、トレーニング不要、およびモデルに依存しないフレームワークである。
PerSenseは、インスタンスレベルの候補ポイントプロンプトを生成する新しいインスタンス検出モジュール(IDM)を使用している。
Point Prompt Selection Module (M)は、適応しきい値と空間ゲーティングによって偽陽性をフィルタリングする。
PerSense++には3つの追加コンポーネントが組み込まれている。
- 参考スコア(独自算出の注目度): 6.527178779672975
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Segmentation in dense visual scenes poses significant challenges due to occlusions, background clutter, and scale variations. To address this, we introduce PerSense, an end-to-end, training-free, and model-agnostic one-shot framework for Personalized instance Segmentation in dense images. PerSense employs a novel Instance Detection Module (IDM) that leverages density maps (DMs) to generate instance-level candidate point prompts, followed by a Point Prompt Selection Module (PPSM) that filters false positives via adaptive thresholding and spatial gating. A feedback mechanism further enhances segmentation by automatically selecting effective exemplars to improve DM quality. We additionally present PerSense++, an enhanced variant that incorporates three additional components to improve robustness in cluttered scenes: (i) a diversity-aware exemplar selection strategy that leverages feature and scale diversity for better DM generation; (ii) a hybrid IDM combining contour and peak-based prompt generation for improved instance separation within complex density patterns; and (iii) an Irrelevant Mask Rejection Module (IMRM) that discards spatially inconsistent masks using outlier analysis. Finally, to support this underexplored task, we introduce PerSense-D, a dedicated benchmark for personalized segmentation in dense images. Extensive experiments across multiple benchmarks demonstrate that PerSense++ outperforms existing methods in dense settings.
- Abstract(参考訳): 密集した視覚シーンのセグメンテーションは、閉塞、背景のぼかし、スケールのバリエーションによって大きな課題を生じさせる。
これを解決するために、高密度画像におけるパーソナライズされたインスタンスセグメンテーションのためのエンドツーエンド、トレーニング不要、モデルに依存しないワンショットフレームワークPerSenseを紹介した。
PerSenseは、密度マップ(DM)を利用してインスタンスレベルの候補点プロンプトを生成する新しいインスタンス検出モジュール(IDM)と、適応しきい値と空間ゲーティングによって偽陽性をフィルタリングするPoint Prompt Selection Module(PPSM)を採用している。
フィードバック機構は、有効例を自動選択し、DM品質を向上させることにより、セグメンテーションをさらに強化する。
さらに、散らかったシーンの堅牢性を改善するために、3つの追加コンポーネントを組み込んだ拡張版PerSense++も紹介します。
(i)DM生成の改善のために特徴とスケールの多様性を活用する多様性に配慮した模範的選択戦略
(II)複雑な密度パターン内でのインスタンス分離を改善するために輪郭とピークベースプロンプト生成を組み合わせたハイブリッドIDM
三)不整合マスク退避モジュール(IMRM)で、不整合マスクを不整合解析により捨てる。
最後に、この未探索タスクをサポートするために、高密度画像のパーソナライズされたセグメンテーションのための専用のベンチマークであるPerSense-Dを紹介する。
複数のベンチマークにわたる大規模な実験は、PerSense++が既存のメソッドよりも密な設定で優れていることを示している。
関連論文リスト
- PerSense: Training-Free Personalized Instance Segmentation in Dense Images [7.002657345547741]
PerSenseは、高密度画像の例として、エンドツーエンドで、トレーニング不要で、モデルに依存しないフレームワークである。
本実験は,高密度環境下でのSOTAよりもPerSenseの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-05-22T10:26:44Z) - Generalizable Entity Grounding via Assistance of Large Language Model [77.07759442298666]
本稿では,長いキャプションから密接な視覚的実体を抽出する手法を提案する。
本研究では,意味代名詞の抽出に大規模なマルチモーダルモデル,エンティティレベルのセグメンテーションを生成するクラス-aセグメンテーションモデル,および各セグメンテーション名詞と対応するセグメンテーションマスクを関連付けるマルチモーダル特徴融合モジュールを利用する。
論文 参考訳(メタデータ) (2024-02-04T16:06:05Z) - Progressively Dual Prior Guided Few-shot Semantic Segmentation [57.37506990980975]
Few-shotのセマンティックセマンティックセマンティクスタスクは、いくつかのアノテーション付きサポートサンプルを使用して、クエリイメージのセマンティクスを実行することを目的としている。
本稿では,先進的に2重にガイドされた数発のセマンティックセマンティックセグメンテーションネットワークを提案する。
論文 参考訳(メタデータ) (2022-11-20T16:19:47Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Semantic Attention and Scale Complementary Network for Instance
Segmentation in Remote Sensing Images [54.08240004593062]
本稿では,セマンティックアテンション(SEA)モジュールとスケール補完マスクブランチ(SCMB)で構成される,エンドツーエンドのマルチカテゴリインスタンスセグメンテーションモデルを提案する。
SEAモジュールは、機能マップ上の興味あるインスタンスのアクティベーションを強化するために、追加の監督を備えた、単純な完全な畳み込みセマンティックセマンティックセマンティクスブランチを含んでいる。
SCMBは、元のシングルマスクブランチをトリデントマスクブランチに拡張し、異なるスケールで補完マスクの監視を導入する。
論文 参考訳(メタデータ) (2021-07-25T08:53:59Z) - DyCo3D: Robust Instance Segmentation of 3D Point Clouds through Dynamic
Convolution [136.7261709896713]
本稿では,インスタンスの性質に応じて適切な畳み込みカーネルを生成するデータ駆動型アプローチを提案する。
提案手法はScanetNetV2とS3DISの両方で有望な結果が得られる。
また、現在の最先端よりも推論速度を25%以上向上させる。
論文 参考訳(メタデータ) (2020-11-26T14:56:57Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。