論文の概要: Segmentation and Recovery of Superquadric Models using Convolutional
Neural Networks
- arxiv url: http://arxiv.org/abs/2001.10504v1
- Date: Tue, 28 Jan 2020 18:17:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 02:42:10.327672
- Title: Segmentation and Recovery of Superquadric Models using Convolutional
Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークを用いた超量子モデルのセグメンテーションと回復
- Authors: Jaka \v{S}ircelj, Tim Oblak, Klemen Grm, Uro\v{s} Petkovi\'c, Ale\v{s}
Jakli\v{c}, Peter Peer, Vitomir \v{S}truc and Franc Solina
- Abstract要約: 畳み込みニューラルネットワーク(CNN)を中心に構築された(二段階)アプローチを提案する。
第1段階では,提案手法はMask RCNNモデルを用いて,深度シーンにおける超クワッドリックな構造を同定する。
我々は、少数の解釈可能なパラメータを持つ複雑な構造を記述することができる。
- 参考スコア(独自算出の注目度): 2.454342521577328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we address the problem of representing 3D visual data with
parameterized volumetric shape primitives. Specifically, we present a
(two-stage) approach built around convolutional neural networks (CNNs) capable
of segmenting complex depth scenes into the simpler geometric structures that
can be represented with superquadric models. In the first stage, our approach
uses a Mask RCNN model to identify superquadric-like structures in depth scenes
and then fits superquadric models to the segmented structures using a specially
designed CNN regressor. Using our approach we are able to describe complex
structures with a small number of interpretable parameters. We evaluated the
proposed approach on synthetic as well as real-world depth data and show that
our solution does not only result in competitive performance in comparison to
the state-of-the-art, but is able to decompose scenes into a number of
superquadric models at a fraction of the time required by competing approaches.
We make all data and models used in the paper available from
https://lmi.fe.uni-lj.si/en/research/resources/sq-seg.
- Abstract(参考訳): 本稿では,パラメータ化された容積形状プリミティブを用いた3次元視覚データ表現の問題に対処する。
具体的には、複雑な深度シーンを超二次モデルで表現できる単純な幾何学構造に分割できる畳み込みニューラルネットワーク(CNN)を中心に構築された(2段階)アプローチを提案する。
第1段階では,マスクrcnnモデルを用いて奥行きシーンにおける超四面体構造を識別し,特別に設計されたcnnレグレッサーを用いて超四面体モデルをセグメント構造に適合させる。
このアプローチを用いることで、少数の解釈可能なパラメータを持つ複雑な構造を記述できる。
提案手法は, 実世界の深度データだけでなく, 実世界の深度データにも適用可能であり, 提案手法は, 最先端技術と比較して競争性能が向上するだけでなく, 競合するアプローチで要求されるわずかな時間で, シーンを複数のスーパークワッドリックモデルに分解できることを示す。
論文で使用されるすべてのデータとモデルは、https://lmi.fe.uni-lj.si/en/research/resources/sq-segから利用可能です。
関連論文リスト
- Neural Textured Deformable Meshes for Robust Analysis-by-Synthesis [17.920305227880245]
本稿では, 近似解析を用いた三重視覚タスクを一貫した方法で定式化する。
実世界の画像で評価すると、従来のニューラルネットワークよりも、我々の分析バイシンセシスの方がはるかに堅牢であることが示される。
論文 参考訳(メタデータ) (2023-05-31T18:45:02Z) - HKNAS: Classification of Hyperspectral Imagery Based on Hyper Kernel
Neural Architecture Search [104.45426861115972]
設計したハイパーカーネルを利用して,構造パラメータを直接生成することを提案する。
我々は1次元または3次元の畳み込みを伴う画素レベルの分類と画像レベルの分類を別々に行う3種類のネットワークを得る。
6つの公開データセットに関する一連の実験は、提案手法が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2023-04-23T17:27:40Z) - BRepNet: A topological message passing system for solid models [6.214548392474976]
境界表現(B-rep)モデルは、コンピュータ支援設計(CAD)アプリケーションで3D形状を記述する標準的な方法です。
我々は,B-repデータ構造を直接操作するように設計されたニューラルネットワークアーキテクチャであるBRepNetを紹介する。
論文 参考訳(メタデータ) (2021-04-01T18:16:03Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z) - Unsupervised Learning Consensus Model for Dynamic Texture Videos
Segmentation [12.462608802359936]
動的テクスチャのセグメンテーションのための効果的な教師なし学習コンセンサスモデルを提案する。
提案モデルでは,分類対象画素の周辺部における再量子化局所2値パターン(LBP)ヒストグラムの値の集合を特徴として用いた。
挑戦的なSynthDBデータセットで実施された実験は、ULCMが大幅に高速で、コーディングが簡単で、単純で、パラメータが限られていることを示している。
論文 参考訳(メタデータ) (2020-06-29T16:40:59Z) - Dense Non-Rigid Structure from Motion: A Manifold Viewpoint [162.88686222340962]
Non-Rigid Structure-from-Motion (NRSfM) 問題は、複数のフレームにまたがる2次元特徴対応から変形物体の3次元形状を復元することを目的としている。
提案手法は,ノイズに対する精度,スケーラビリティ,堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2020-06-15T09:15:54Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z) - STD-Net: Structure-preserving and Topology-adaptive Deformation Network
for 3D Reconstruction from a Single Image [27.885717341244014]
単一のビューイメージからの3D再構成は、コンピュータビジョンにおける長年の進歩である。
本稿では,メッシュ表現を用いた3次元モデル再構築のためのSTD-Netを提案する。
ShapeNetの画像による実験結果から, 提案したSTD-Netは, 3Dオブジェクトを再構成する他の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-03-07T11:02:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。