論文の概要: unMORE: Unsupervised Multi-Object Segmentation via Center-Boundary Reasoning
- arxiv url: http://arxiv.org/abs/2506.01778v1
- Date: Mon, 02 Jun 2025 15:22:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.572414
- Title: unMORE: Unsupervised Multi-Object Segmentation via Center-Boundary Reasoning
- Title(参考訳): unMORE: Center-Boundary Reasoningによる教師なしマルチオブジェクトセグメンテーション
- Authors: Yafei Yang, Zihui Zhang, Bo Yang,
- Abstract要約: 教師なしマルチオブジェクトセグメンテーションは、単一画像において難しい問題である。
本稿では,現実世界の画像中の多くの複雑な物体を識別する新しい2段階パイプラインであるunMOREを紹介する。
本手法は,すべてのベースラインが崩壊する混雑した画像に優れる。
- 参考スコア(独自算出の注目度): 6.259786457043613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the challenging problem of unsupervised multi-object segmentation on single images. Existing methods, which rely on image reconstruction objectives to learn objectness or leverage pretrained image features to group similar pixels, often succeed only in segmenting simple synthetic objects or discovering a limited number of real-world objects. In this paper, we introduce unMORE, a novel two-stage pipeline designed to identify many complex objects in real-world images. The key to our approach involves explicitly learning three levels of carefully defined object-centric representations in the first stage. Subsequently, our multi-object reasoning module utilizes these learned object priors to discover multiple objects in the second stage. Notably, this reasoning module is entirely network-free and does not require human labels. Extensive experiments demonstrate that unMORE significantly outperforms all existing unsupervised methods across 6 real-world benchmark datasets, including the challenging COCO dataset, achieving state-of-the-art object segmentation results. Remarkably, our method excels in crowded images where all baselines collapse.
- Abstract(参考訳): 単一画像における教師なし多目的セグメンテーションの課題について検討する。
既存の方法では、画像再構成の対象を学習したり、訓練済みの画像特徴を利用して類似のピクセルをグループ化するが、多くの場合、単純な合成オブジェクトのセグメント化や、少数の実世界のオブジェクトの発見に成功している。
本稿では,現実世界の画像中の多くの複雑な物体を識別する新しい2段階パイプラインであるunMOREを紹介する。
このアプローチの鍵は、第1段階で慎重に定義された3つのレベルのオブジェクト中心表現を明示的に学習することにあります。
その後、これらの学習対象を事前に利用し、第2段階の複数の対象を探索する。
特に、この推論モジュールは完全にネットワークフリーであり、人間のラベルを必要としない。
大規模な実験によると、UnMOREは6つの実世界のベンチマークデータセットで既存の教師なしメソッドを著しく上回り、COCOデータセットに挑戦し、最先端のオブジェクトセグメンテーション結果を達成する。
興味深いことに,本手法は,すべてのベースラインが崩壊する混雑した画像に優れる。
関連論文リスト
- GrabS: Generative Embodied Agent for 3D Object Segmentation without Scene Supervision [7.511342491529451]
複雑な点雲における3次元物体のセグメンテーションの難しさについて,人間の3次元シーンのラベルを監督のために必要とせずに検討した。
事前訓練された2D特徴の類似性や3Dポイントをオブジェクトとしてグループ化する動きなどの外部信号に頼ることで、既存の教師なし手法は車のような単純な物体を識別することに限定される。
論文 参考訳(メタデータ) (2025-04-16T04:13:53Z) - Find your Needle: Small Object Image Retrieval via Multi-Object Attention Optimization [5.2337753974570616]
本研究では,小物体画像検索(SoIR)の課題に対処する。その目的は,特定の小物体を含む画像を,散らばったシーンで検索することである。
主な課題は、画像内のすべてのオブジェクトを効果的に表現する、スケーラブルで効率的な検索のための単一のイメージ記述子を構築することである。
専用多目的事前学習フェーズを組み込んだ新しい検索フレームワークであるMaO(Multi-object Attention Optimization)を導入する。
論文 参考訳(メタデータ) (2025-03-10T08:27:02Z) - Counting Stacked Objects [57.68870743111393]
本稿では,タスクを2つの相補的なサブプロブレムに分解する新しい3Dカウント手法を提案する。
幾何学的再構成と深層学習に基づく深度解析を組み合わせることで,コンテナ内の同一物体を正確にカウントすることができる。
多様な実世界および大規模合成データセット上での3Dカウントパイプラインの検証を行う。
論文 参考訳(メタデータ) (2024-11-28T13:51:16Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - Self-Supervised Learning of Object Parts for Semantic Segmentation [7.99536002595393]
我々は、オブジェクト部品の自己教師型学習がこの問題の解決策であると主張している。
本手法は3つのセマンティックセグメンテーションベンチマークの最先端を17%-3%超える。
論文 参考訳(メタデータ) (2022-04-27T17:55:17Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Robust Instance Segmentation through Reasoning about Multi-Object
Occlusion [9.536947328412198]
本稿では,隠蔽に頑健な多目的インスタンスセグメンテーションのためのディープネットワークを提案する。
私たちの研究は、神経機能アクティベーションの生成モデルを学習し、オクローダの発見に役立てています。
特に、オブジェクトクラスとそのインスタンスおよびオクルーダーセグメンテーションのフィードフォワード予測を得る。
論文 参考訳(メタデータ) (2020-12-03T17:41:55Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。