論文の概要: From Local Matches to Global Masks: Novel Instance Detection in Open-World Scenes
- arxiv url: http://arxiv.org/abs/2603.03577v1
- Date: Tue, 03 Mar 2026 23:11:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.115881
- Title: From Local Matches to Global Masks: Novel Instance Detection in Open-World Scenes
- Title(参考訳): ローカルマッチからグローバルマスク:オープンワールドシーンにおける新しいインスタンス検出
- Authors: Qifan Zhang, Sai Haneesh Allu, Jikai Wang, Yangxiao Lu, Yu Xiang,
- Abstract要約: テンプレート画像の小さなセットだけを考えると、ロボットは特定のオブジェクトのインスタンスを散らかって、以前は見えなかったシーンに配置し、セグメント化しなければならない。
L2G-Detは、明示的なオブジェクト提案をバイパスする、ローカルからグローバルのインスタンス検出フレームワークである。
実験では、オープンワールド設定に挑戦する提案ベースの手法よりもパフォーマンスが向上した。
- 参考スコア(独自算出の注目度): 9.4842491946857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting and segmenting novel object instances in open-world environments is a fundamental problem in robotic perception. Given only a small set of template images, a robot must locate and segment a specific object instance in a cluttered, previously unseen scene. Existing proposal-based approaches are highly sensitive to proposal quality and often fail under occlusion and background clutter. We propose L2G-Det, a local-to-global instance detection framework that bypasses explicit object proposals by leveraging dense patch-level matching between templates and the query image. Locally matched patches generate candidate points, which are refined through a candidate selection module to suppress false positives. The filtered points are then used to prompt an augmented Segment Anything Model (SAM) with instance-specific object tokens, enabling reliable reconstruction of complete instance masks. Experiments demonstrate improved performance over proposal-based methods in challenging open-world settings.
- Abstract(参考訳): オープンワールド環境における新しいオブジェクトインスタンスの検出とセグメンテーションは、ロボット知覚の根本的な問題である。
テンプレート画像の小さなセットだけを考えると、ロボットは特定のオブジェクトのインスタンスを散らかって、以前は見えなかったシーンに配置し、セグメント化しなければならない。
既存の提案ベースのアプローチは、提案の品質に非常に敏感であり、隠蔽やバックグラウンドの混乱の下で失敗することが多い。
L2G-Detは,テンプレートとクエリイメージ間のパッチレベルの密マッチングを活用することで,明示的なオブジェクト提案を回避できるローカル・グローバル・インスタンス検出フレームワークである。
局所的に一致したパッチは候補点を生成し、候補選択モジュールを通じて洗練され、偽陽性を抑制する。
次にフィルタされたポイントを使用して、インスタンス固有のオブジェクトトークンを付加したSegment Anything Model(SAM)をプロンプトし、完全なインスタンスマスクの信頼性の高い再構築を可能にする。
実験では、オープンワールド設定に挑戦する提案ベースの手法よりもパフォーマンスが向上した。
関連論文リスト
- WeDetect: Fast Open-Vocabulary Object Detection as Retrieval [74.39703419628829]
Open-vocabularyオブジェクト検出は、テキストプロンプトを通じて任意のクラスを検出することを目的としている。
クロスモーダル融合層(ノンフュージョン)を持たない手法は、認識を検索問題として扱うことにより、より高速な推論を提供する。
WeDetectという名前のモデルファミリを開発し、推論効率の高い15ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-12-13T12:40:28Z) - A Simple yet Powerful Instance-Aware Prompting Framework for Training-free Camouflaged Object Segmentation [6.712332323439369]
タスクジェネリックプロンプトをきめ細かなインスタンスマスクに明示的に変換する,トレーニング不要なCamouflaged Objectパイプラインを提案する。
提案したIAPFは、既存の最先端のトレーニングフリーなCOSメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2025-08-09T09:35:32Z) - Solving Instance Detection from an Open-World Perspective [14.438053802336947]
インスタンス検出(InsDet)は、与えられた視覚的参照に基づいて、新しいシーンイメージ内の特定のオブジェクトインスタンスをローカライズすることを目的としている。
そのオープンワールドの性質は、ロボット工学からAR/VRまで幅広い応用をサポートしているが、同時に大きな課題も生んでいる。
論文 参考訳(メタデータ) (2025-03-01T05:56:58Z) - Insight Any Instance: Promptable Instance Segmentation for Remote Sensing Images [0.0]
リモートセンシング画像(RSI)のインスタンスセグメンテーションは、土地計画やインテリジェントトランスポートといった幅広い用途に欠かせない課題である。
ほとんどのインスタンスセグメンテーションモデルは、深い特徴学習に基づいており、複数のダウンサンプリングのような操作を含んでいる。
近年,視覚課題における即時学習の優れた性能に触発されて,上記の課題に対処する新たなプロンプトパラダイムを提案する。
論文 参考訳(メタデータ) (2024-09-11T05:31:50Z) - A Unified Query-based Paradigm for Camouflaged Instance Segmentation [26.91533966120182]
本稿では,UQFormer と呼ばれるキャモフラージュされたインスタンスセグメンテーションのための,クエリベースの統合型マルチタスク学習フレームワークを提案する。
本モデルでは,インスタンスセグメンテーションをクエリに基づく直接セット予測問題とみなすが,非最大抑圧のような後処理は不要である。
最先端の14のアプローチと比較して、UQFormerは、camouflagedインスタンスセグメンテーションのパフォーマンスを大幅に改善します。
論文 参考訳(メタデータ) (2023-08-14T18:23:18Z) - SIM: Semantic-aware Instance Mask Generation for Box-Supervised Instance
Segmentation [22.930296667684125]
本稿では,セマンティック・アウェア・インスタンス・マスク(SIM)生成パラダイムを開発することによって,新しいボックス管理型インスタンス・セグメンテーション手法を提案する。
セマンティック・アウェア・プロトタイプは,同じセマンティクスの異なるインスタンスを区別できないことを考慮し,自己補正機構を提案する。
実験結果から,提案手法が他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-14T05:59:25Z) - Discovery-and-Selection: Towards Optimal Multiple Instance Learning for
Weakly Supervised Object Detection [86.86602297364826]
複数インスタンス学習(DS-MIL)と融合した発見・選択手法を提案する。
我々の提案するDS-MILアプローチは,最先端の性能を報告しながら,ベースラインを一貫して改善することができる。
論文 参考訳(メタデータ) (2021-10-18T07:06:57Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - Robust Object Detection via Instance-Level Temporal Cycle Confusion [89.1027433760578]
物体検出器の分布外一般化を改善するための補助的自己監視タスクの有効性を検討する。
最大エントロピーの原理に触発されて,新しい自己監督タスクであるインスタンスレベル時間サイクル混乱(cycconf)を導入する。
それぞれのオブジェクトに対して、タスクは、ビデオ内の隣接するフレームで最も異なるオブジェクトの提案を見つけ、自己スーパービジョンのために自分自身にサイクルバックすることです。
論文 参考訳(メタデータ) (2021-04-16T21:35:08Z) - Pointly-Supervised Instance Segmentation [81.34136519194602]
インスタンスセグメンテーションの弱い監視の新しい形態であるポイントベースのインスタンスレベルのアノテーションを提案する。
標準のバウンディングボックスアノテーションと、各バウンディングボックス内で一様にサンプリングされるラベル付きポイントを組み合わせる。
実験では,COCO,PASCAL VOC,Cityscapes,LVISでトレーニングしたMask R-CNNモデルに対して,各オブジェクトあたりの注釈付きポイントが94%~98%の完全教師付きパフォーマンスを達成した。
論文 参考訳(メタデータ) (2021-04-13T17:59:40Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。