論文の概要: RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction
- arxiv url: http://arxiv.org/abs/2011.14744v1
- Date: Mon, 30 Nov 2020 12:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:44:23.028338
- Title: RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction
- Title(参考訳): rfd-net:semantic instance reconstructionによるポイントシーン理解
- Authors: Yinyu Nie, Ji Hou, Xiaoguang Han, Matthias Nie{\ss}ner
- Abstract要約: 本稿では,高密度物体表面を直接点雲から検出・再構成するRfD-Netを提案する。
インスタンス再構成を大域的オブジェクトローカライゼーションと局所形状予測に分離する。
我々のアプローチは、オブジェクト再構成において、最先端の技術を一貫して上回り、メッシュIoUの11以上を改善します。
- 参考スコア(独自算出の注目度): 19.535169371240073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic scene understanding from point clouds is particularly challenging as
the points reflect only a sparse set of the underlying 3D geometry. Previous
works often convert point cloud into regular grids (e.g. voxels or bird-eye
view images), and resort to grid-based convolutions for scene understanding. In
this work, we introduce RfD-Net that jointly detects and reconstructs dense
object surfaces directly from raw point clouds. Instead of representing scenes
with regular grids, our method leverages the sparsity of point cloud data and
focuses on predicting shapes that are recognized with high objectness. With
this design, we decouple the instance reconstruction into global object
localization and local shape prediction. It not only eases the difficulty of
learning 2-D manifold surfaces from sparse 3D space, the point clouds in each
object proposal convey shape details that support implicit function learning to
reconstruct any high-resolution surfaces. Our experiments indicate that
instance detection and reconstruction present complementary effects, where the
shape prediction head shows consistent effects on improving object detection
with modern 3D proposal network backbones. The qualitative and quantitative
evaluations further demonstrate that our approach consistently outperforms the
state-of-the-arts and improves over 11 of mesh IoU in object reconstruction.
- Abstract(参考訳): 点雲からのセマンティックなシーン理解は、下層の3次元幾何学のスパースセットのみを反映しているため、特に困難である。
以前の作業はしばしば点雲を通常のグリッドに変換する(例)。
voxelsまたはbird-eye viewイメージ)、そしてシーン理解のためにグリッドベースの畳み込みを利用する。
本研究では,RfD-Netを導入し,原点雲から直接高密度物体表面を共同で検出・再構成する。
通常のグリッドでシーンを表現するのではなく、ポイントクラウドデータの空間性を活用し、高いオブジェクト性で認識される形状を予測することに重点を置いている。
この設計により、インスタンス再構成をグローバルオブジェクトの局所化と局所形状予測に分離する。
スパースな3d空間から2次元多様体曲面を学ぶことの難しさを和らげるだけでなく、各オブジェクトのポイントクラウドは、暗黙的な関数学習をサポートする形状の詳細を伝達し、あらゆる高分解能曲面を再構築する。
本実験は, 形状予測ヘッドが, 現代の3次元提案ネットワークバックボーンによる物体検出改善に一貫した効果を示す場合に, インスタンス検出と再構成が相補効果を示すことを示す。
定性的かつ定量的な評価は,我々の手法が物体再構成におけるメッシュIoUの11以上を一貫して上回っていることを示す。
関連論文リスト
- Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Point Scene Understanding via Disentangled Instance Mesh Reconstruction [21.92736190195887]
本稿では,効率的なポイントシーン理解のために,aDisentangled Instance Mesh Reconstruction (DIMR) フレームワークを提案する。
セグメント化ベースのバックボーンは、偽陽性オブジェクトの提案を減らすために適用される。
メッシュを意識した潜在コード空間を活用して、シェイプコンプリートとメッシュ生成のプロセスを切り離します。
論文 参考訳(メタデータ) (2022-03-31T06:36:07Z) - Learnable Triangulation for Deep Learning-based 3D Reconstruction of
Objects of Arbitrary Topology from Single RGB Images [12.693545159861857]
モノクロ画像から3次元物体を再構成する深層強化学習手法を提案する。
提案手法は, 視覚的品質, 再構成精度, 計算時間において, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2021-09-24T09:44:22Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - 3D Object Classification on Partial Point Clouds: A Practical
Perspective [91.81377258830703]
点雲は3次元オブジェクト分類において一般的な形状表現である。
本稿では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実践的な設定を提案する。
本稿では,アライメント分類手法による新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-18T04:00:56Z) - Learning Occupancy Function from Point Clouds for Surface Reconstruction [6.85316573653194]
表面から採取した点雲から3次元形状を復元するために, 入射関数に基づく表面再構成が長い間研究されてきた。
本稿では,スパース点雲から占有関数を学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T02:07:29Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z) - Meshing Point Clouds with Predicted Intrinsic-Extrinsic Ratio Guidance [30.863194319818223]
既存のポイントへの接続情報のみを付加することで、インプットポイントクラウドを可能な限り活用することを提案する。
私たちの重要なイノベーションはローカル接続のサロゲートであり、本質的/外生的メトリクスを比較して計算します。
提案手法は, 詳細を保存できるだけでなく, あいまいな構造を扱えるだけでなく, 目に見えないカテゴリに対して強い一般化性を持つことを示す。
論文 参考訳(メタデータ) (2020-07-17T22:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。