論文の概要: NOCTIS: Novel Object Cyclic Threshold based Instance Segmentation
- arxiv url: http://arxiv.org/abs/2507.01463v2
- Date: Tue, 02 Sep 2025 11:45:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-03 14:24:52.485223
- Title: NOCTIS: Novel Object Cyclic Threshold based Instance Segmentation
- Title(参考訳): NOCTIS: 新しいオブジェクトサイクル閾値ベースのインスタンスセグメンテーション
- Authors: Max Gandyra, Alessandro Santonicola, Michael Beetz,
- Abstract要約: 新規オブジェクトサイクル閾値ベースインスタンス(NOCTIS)と呼ばれる新しいトレーニングフリーフレームワークを提案する。
NOCTISは2つの事前訓練されたモデルを統合する: Grounded-SAM 2 for object proposals with exact bounding box and corresponding segmentation masks; DINOv2 for robust class and patch embeddeds。
実験により,NOCTISはトレーニングや微調整を伴わずに,平均APスコアに関する最先端の結果が得られることが示された。
- 参考スコア(独自算出の注目度): 42.84923737757637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Instance segmentation of novel objects instances in RGB images, given some example images for each object, is a well known problem in computer vision. Designing a model general enough to be employed for all kinds of novel objects without (re-) training has proven to be a difficult task. To handle this, we present a new training-free framework, called: Novel Object Cyclic Threshold based Instance Segmentation (NOCTIS). NOCTIS integrates two pre-trained models: Grounded-SAM 2 for object proposals with precise bounding boxes and corresponding segmentation masks; and DINOv2 for robust class and patch embeddings, due to its zero-shot capabilities. Internally, the proposal-object matching is realized by determining an object matching score based on the similarity of the class embeddings and the average maximum similarity of the patch embeddings with a new cyclic thresholding (CT) mechanism that mitigates unstable matches caused by repetitive textures or visually similar patterns. Beyond CT, NOCTIS introduces: (i) an appearance score that is unaffected by object selection bias; (ii) the usage of the average confidence of the proposals bounding box and mask as a scoring component; and (iii) an RGB-only pipeline that performs even better than RGB-D ones. We empirically show that NOCTIS, without further training/fine tuning, attains state-of-the-art results regarding the mean AP score, w.r.t. the best RGB and RGB-D methods on the seven core datasets of the BOP 2023 challenge for the "Model-based 2D segmentation of unseen objects" task.
- Abstract(参考訳): RGB画像における新しいオブジェクトのインスタンス分割は、各オブジェクトのサンプル画像が与えられた場合、コンピュータビジョンにおいてよく知られた問題である。
あらゆる種類の新しいオブジェクトに対して(再)トレーニングなしで使えるようなモデルの設計は、難しい作業であることが証明された。
これを処理するために、新しいトレーニング不要のフレームワーク、Novell Object Cyclic Threshold based Instance Segmentation (NOCTIS)を紹介します。
NOCTISは2つの事前訓練されたモデルを統合している: Grounded-SAM 2 - 正確な境界ボックスと対応するセグメンテーションマスクを持つオブジェクト提案用、DINOv2 - ゼロショット機能のため、堅牢なクラスとパッチ埋め込み用である。
内部的には、繰り返しテクスチャや視覚的に類似したパターンによる不安定なマッチングを緩和する新しいサイクリックしきい値設定(CT)機構により、クラス埋め込みの類似度とパッチ埋め込みの平均最大類似度に基づいてオブジェクトマッチングスコアを決定することにより、提案対象マッチングを実現する。
NOCTISはCT以外にも次のように紹介している。
一 対象選択バイアスの影響を受けない外観スコア
二 議定書及び表紙を採点要素として使用すること。
(iii)RGB-DパイプラインよりもパフォーマンスがよいRGBのみのパイプライン。
実験により、NOCTISは、トレーニングや微調整を伴わずに、平均APスコア、すなわち、BOP 2023の7つのコアデータセット上での最良のRGBおよびRGB-Dメソッドに関する最先端の結果が得られることを実証的に示し、"未知のオブジェクトのモデルベース2Dセグメンテーション"タスクについて述べる。
関連論文リスト
- CAP-Net: A Unified Network for 6D Pose and Size Estimation of Categorical Articulated Parts from a Single RGB-D Image [86.75098349480014]
本稿では,ロボット操作作業における調音物体のカテゴリーレベルのポーズ推定に取り組む。
そこで本研究では,Categorical Articulated Partsの6次元ポーズとサイズを推定するためのシングルステージネットワークCAP-Netを提案する。
我々は,RGB画像と実センサからシミュレーションした深度雑音を特徴とするRGB-D調音データセットであるRGBD-Artデータセットを紹介した。
論文 参考訳(メタデータ) (2025-04-15T14:30:26Z) - Adapting Pre-Trained Vision Models for Novel Instance Detection and Segmentation [15.414518995812754]
新たなインスタンス検出と計算(NIDS)は、新しいオブジェクトインスタンスを検出し、セグメンテーションすることを目的としている。
我々は、オブジェクトの提案生成、インスタンステンプレートと提案領域の両方の埋め込み生成、インスタンスラベル割り当ての埋め込みマッチングを含む統一的でシンプルで効果的なフレームワーク(NIDS-Net)を提案する。
論文 参考訳(メタデータ) (2024-05-28T06:16:57Z) - FoundPose: Unseen Object Pose Estimation with Foundation Features [11.32559845631345]
FoundPoseは、単一のRGB画像から見えないオブジェクトを6Dポーズで推定するモデルベースの手法である。
この方法は、オブジェクトやタスク固有のトレーニングを必要とせずに、3Dモデルを使って、新しいオブジェクトを素早くオンボードできる。
論文 参考訳(メタデータ) (2023-11-30T18:52:29Z) - Weakly-Supervised Concealed Object Segmentation with SAM-based Pseudo
Labeling and Multi-scale Feature Grouping [40.07070188661184]
Wakly-Supervised Concealed Object (WSCOS) は、周囲の環境とうまく融合したオブジェクトを分割することを目的としている。
内在的な類似性のため、背景から隠された物体を区別することは困難である。
これら2つの課題に対処する新しいWSCOS手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T14:31:34Z) - Discovering Object Masks with Transformers for Unsupervised Semantic
Segmentation [75.00151934315967]
MaskDistillは教師なしセマンティックセグメンテーションのための新しいフレームワークである。
我々のフレームワークは、低レベルの画像キューにラッチを付けず、オブジェクト中心のデータセットに限らない。
論文 参考訳(メタデータ) (2022-06-13T17:59:43Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - Single-stage Keypoint-based Category-level Object Pose Estimation from
an RGB Image [27.234658117816103]
カテゴリレベルのオブジェクトポーズ推定のための,単一段階のキーポイントに基づくアプローチを提案する。
提案ネットワークは2次元オブジェクト検出を行い、2次元キーポイントを検出し、6-DoFのポーズを推定し、相対的に有界な立方体次元を回帰する。
我々は,3次元IoU測定値における最先端の手法よりも優れた,挑戦的なObjectronベンチマークに関する広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-09-13T17:55:00Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Single Object Tracking through a Fast and Effective Single-Multiple
Model Convolutional Neural Network [0.0]
最近の最先端の(SOTA)アプローチは、エリア内の他のオブジェクトとターゲットを区別するために重い構造を持つマッチングネットワークを取ることに基づいて提案されています。
本稿では,これまでのアプローチとは対照的に,一つのショットで物体の位置を識別できる特殊なアーキテクチャを提案する。
提示されたトラッカーは、1080tiで最大120 fps$の超高速で、挑戦的な状況でsomaと比較してパフォーマンスする。
論文 参考訳(メタデータ) (2021-03-28T11:02:14Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。