論文の概要: Spotlights: Probing Shapes from Spherical Viewpoints
- arxiv url: http://arxiv.org/abs/2205.12564v1
- Date: Wed, 25 May 2022 08:23:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 06:47:54.497461
- Title: Spotlights: Probing Shapes from Spherical Viewpoints
- Title(参考訳): Spotlights: 球面から見た形状の探索
- Authors: Jiaxin Wei, Lige Liu, Ran Cheng, Wenqing Jiang, Minghao Xu, Xinyu
Jiang, Tao Sun, Soren Schwertfeger, Laurent Kneip
- Abstract要約: 本研究では3次元形状を1次元の奥行き値のコンパクトな配列として表現するスポットライトと呼ばれる新しいサンプリングモデルを提案する。
球面上に均等に分布するカメラの構成をシミュレートし、それぞれの仮想カメラがその主点から小さな同心球状キャップに試料点を通して光線を流し、球面に囲まれた物体との交点を探索する。
- 参考スコア(独自算出の注目度): 25.824284796437652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have witnessed the surge of learned representations that
directly build upon point clouds. Though becoming increasingly expressive, most
existing representations still struggle to generate ordered point sets.
Inspired by spherical multi-view scanners, we propose a novel sampling model
called Spotlights to represent a 3D shape as a compact 1D array of depth
values. It simulates the configuration of cameras evenly distributed on a
sphere, where each virtual camera casts light rays from its principal point
through sample points on a small concentric spherical cap to probe for the
possible intersections with the object surrounded by the sphere. The structured
point cloud is hence given implicitly as a function of depths. We provide a
detailed geometric analysis of this new sampling scheme and prove its
effectiveness in the context of the point cloud completion task. Experimental
results on both synthetic and real data demonstrate that our method achieves
competitive accuracy and consistency while having a significantly reduced
computational cost. Furthermore, we show superior performance on the downstream
point cloud registration task over state-of-the-art completion methods.
- Abstract(参考訳): 近年、ポイントクラウド上に直接構築される学習表現の急増が目撃されている。
表現力は増すが、既存の表現の多くは依然として順序付けられた点集合を生成するのに苦労している。
球面多視点スキャナーにインスパイアされた新しいサンプリングモデルSpotlightsを提案し,3次元形状を1次元の奥行き値のコンパクトな配列として表現する。
球面上に均等に分布するカメラの構成をシミュレートし、各仮想カメラは主点から小さな同心円状の球面キャップのサンプルポイントを通して光線を投射し、球面に囲まれた物体との交点を探索する。
したがって、構造化された点雲は深さの関数として暗黙的に与えられる。
我々は,この新しいサンプリング方式の詳細な幾何学的解析を行い,点雲完了タスクの文脈での有効性を実証する。
合成データと実データの両方における実験結果から, 計算コストを大幅に削減しつつ, 効率と一貫性を両立できることが示された。
さらに,ダウンストリームポイントクラウド登録タスクにおいて,最先端の完了手法よりも優れた性能を示す。
関連論文リスト
- PIVOT-Net: Heterogeneous Point-Voxel-Tree-based Framework for Point
Cloud Compression [8.778300313732027]
異種クラウド圧縮(PCC)フレームワークを提案する。
私たちは、典型的なポイントクラウド表現 -- ポイントベース、ボクセルベース、ツリーベース表現 -- と関連するバックボーンを統一します。
本稿では,デコードのためのコンテキスト対応アップサンプリングと,機能集約のための拡張ボクセルトランスフォーマーによりフレームワークを増強する。
論文 参考訳(メタデータ) (2024-02-11T16:57:08Z) - PDF: Point Diffusion Implicit Function for Large-scale Scene Neural
Representation [24.751481680565803]
大規模シーンニューラル表現のためのポイント暗黙関数(PDF)を提案する。
本手法のコアは大規模クラウド超解像拡散モジュールである。
Mip-NeRF 360に基づく領域サンプリングを用いて背景表現をモデル化する。
論文 参考訳(メタデータ) (2023-11-03T08:19:47Z) - Point2Pix: Photo-Realistic Point Cloud Rendering via Neural Radiance
Fields [63.21420081888606]
最近の放射場と拡張法は、2次元入力から現実的な画像を合成するために提案されている。
我々は3次元スパース点雲と2次元高密度画像画素を結びつけるための新しい点としてPoint2Pixを提示する。
論文 参考訳(メタデータ) (2023-03-29T06:26:55Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - Shape Completion with Points in the Shadow [13.608498759468024]
単一視点のクラウド補完は、限られた観測のみに基づいてオブジェクトの完全な幾何を復元することを目的としている。
コンピュータグラフィックスにおける古典的なシャドウボリューム技術に着想を得て,解空間を効果的に削減する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-17T14:58:56Z) - Neural Point Light Fields [80.98651520818785]
本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
論文 参考訳(メタデータ) (2021-12-02T18:20:10Z) - Concentric Spherical GNN for 3D Representation Learning [53.45704095146161]
同心球面特徴写像を学習するための新しい多解畳み込みアーキテクチャを提案する。
当社の階層的アーキテクチャは、球内情報と球間情報の両方を組み込むための代替学習に基づいています。
回転データを用いた3次元分類作業における最先端性能向上へのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2021-03-18T19:05:04Z) - Semantic Segmentation for Real Point Cloud Scenes via Bilateral
Augmentation and Adaptive Fusion [38.05362492645094]
現実世界の複雑な環境を直感的に捉えることができますが、3Dデータの生の性質のため、機械認識にとって非常に困難です。
我々は、現実に収集された大規模クラウドデータに対して、重要な視覚的タスク、セマンティックセグメンテーションに集中する。
3つのベンチマークで最先端のネットワークと比較することにより,ネットワークの有効性を実証する。
論文 参考訳(メタデータ) (2021-03-12T04:13:20Z) - 3D Object Classification on Partial Point Clouds: A Practical
Perspective [91.81377258830703]
点雲は3次元オブジェクト分類において一般的な形状表現である。
本稿では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実践的な設定を提案する。
本稿では,アライメント分類手法による新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-18T04:00:56Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z) - RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction [19.535169371240073]
本稿では,高密度物体表面を直接点雲から検出・再構成するRfD-Netを提案する。
インスタンス再構成を大域的オブジェクトローカライゼーションと局所形状予測に分離する。
我々のアプローチは、オブジェクト再構成において、最先端の技術を一貫して上回り、メッシュIoUの11以上を改善します。
論文 参考訳(メタデータ) (2020-11-30T12:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。