論文の概要: Learning to Group: A Bottom-Up Framework for 3D Part Discovery in Unseen
Categories
- arxiv url: http://arxiv.org/abs/2002.06478v4
- Date: Sat, 18 Sep 2021 03:30:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 17:50:28.160233
- Title: Learning to Group: A Bottom-Up Framework for 3D Part Discovery in Unseen
Categories
- Title(参考訳): グループへの学習: 見えないカテゴリにおける3D部分発見のためのボトムアップフレームワーク
- Authors: Tiange Luo, Kaichun Mo, Zhiao Huang, Jiarui Xu, Siyu Hu, Liwei Wang,
Hao Su
- Abstract要約: 本稿では,小規模提案を段階的に大規模にグループ化するグループ化ポリシーを学習ベースで学習する集合的クラスタリングフレームワークを提案する。
本手法は,3つのトレーニングカテゴリから21の未確認テストカテゴリに,注釈付きサンプルを見ることなく知識を伝達できることを実証する。
- 参考スコア(独自算出の注目度): 37.256549534404016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of discovering 3D parts for objects in unseen
categories. Being able to learn the geometry prior of parts and transfer this
prior to unseen categories pose fundamental challenges on data-driven shape
segmentation approaches. Formulated as a contextual bandit problem, we propose
a learning-based agglomerative clustering framework which learns a grouping
policy to progressively group small part proposals into bigger ones in a
bottom-up fashion. At the core of our approach is to restrict the local context
for extracting part-level features, which encourages the generalizability to
unseen categories. On the large-scale fine-grained 3D part dataset, PartNet, we
demonstrate that our method can transfer knowledge of parts learned from 3
training categories to 21 unseen testing categories without seeing any
annotated samples. Quantitative comparisons against four shape segmentation
baselines shows that our approach achieve the state-of-the-art performance.
- Abstract(参考訳): 未発見のカテゴリで物体の3d部品を発見する問題に対処する。
部品に先立って幾何学を学習し、未確認のカテゴリに先立ってこれを転送できることは、データ駆動型形状分割アプローチに根本的な課題をもたらす。
文脈的バンディット問題として定式化され,小規模提案をボトムアップ方式で段階的にグループ化するためのグループ化ポリシを学習する学習型集約クラスタリングフレームワークを提案する。
私たちのアプローチの核心は、部分レベルの特徴を抽出するために局所的なコンテキストを制限することです。
3つのトレーニングカテゴリから21の未発見テストカテゴリに学習した部品の知識を,アノテートされたサンプルを見ることなく転送できることを,partnetで実証した。
4つの形状セグメンテーションベースラインとの定量的比較により,本手法が最先端の性能を実現することを示す。
関連論文リスト
- 3D Shape Completion on Unseen Categories:A Weakly-supervised Approach [61.76304400106871]
未確認のカテゴリから完全な形状を再構築するための、新しい弱教師付きフレームワークを導入する。
まず,各カテゴリから得られたデータを利用して粗い形状を推定する,エンドツーエンドの事前支援型形状学習ネットワークを提案する。
さらに, 粗い形状をさらに洗練させるために, 自己教師型形状改善モデルを提案する。
論文 参考訳(メタデータ) (2024-01-19T09:41:09Z) - PartAfford: Part-level Affordance Discovery from 3D Objects [113.91774531972855]
パートレベルの空き地探索(PartAfford)の課題について紹介する。
対象物当たりの空きラベルのみを考慮し、(i)3D形状を部品に分解し、(ii)各部品が特定の空きカテゴリに対応する方法を検出する。
本稿では,パーセンテージ・セットの監督と幾何学的原始正規化のみを活用することで,パートレベルの表現を発見する新しい学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-28T02:58:36Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Learn to Learn Metric Space for Few-Shot Segmentation of 3D Shapes [17.217954254022573]
メタラーニングに基づく3次元形状分割手法を提案する。
本稿では,ShapeNet部データセットにおける提案手法の優れた性能を,既存のベースラインや最先端の半教師手法と比較し,いくつかのシナリオで示す。
論文 参考訳(メタデータ) (2021-07-07T01:47:00Z) - Learning Fine-Grained Segmentation of 3D Shapes without Part Labels [29.837938445219528]
学習に基づく3d形状セグメンテーションは、通常、トレーニング形状のすべての部分が所定のタグセットでアノテートされていると仮定して、意味的なラベリング問題として定式化される。
細粒度セグメンテーションを持つ形状データセットから,部分ラベルのない部分前処理を学習するための深層クラスタリングを提案する。
提案手法は,最先端性能を示す細粒度セグメンテーションの挑戦的なベンチマークを用いて評価する。
論文 参考訳(メタデータ) (2021-03-24T07:27:07Z) - Commonality-Parsing Network across Shape and Appearance for Partially
Supervised Instance Segmentation [71.59275788106622]
そこで本稿では,マスク付分類から新しい分類へ一般化可能な,クラス非依存の共通性について考察する。
本モデルでは,COCOデータセット上のサンプルセグメンテーションにおける部分教師付き設定と少数ショット設定の両方において,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-24T07:23:44Z) - Fine-Grained 3D Shape Classification with Hierarchical Part-View
Attentions [70.0171362989609]
本稿では,FG3D-Netと呼ばれる新しい3次元形状分類手法を提案する。
詳細な3次元形状データセットに基づく結果から,本手法が他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-26T06:53:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。