論文の概要: Pointersect: Neural Rendering with Cloud-Ray Intersection
- arxiv url: http://arxiv.org/abs/2304.12390v1
- Date: Mon, 24 Apr 2023 18:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 23:05:56.288644
- Title: Pointersect: Neural Rendering with Cloud-Ray Intersection
- Title(参考訳): Pointersect: クラウド線切断によるニューラルレンダリング
- Authors: Jen-Hao Rick Chang, Wei-Yu Chen, Anurag Ranjan, Kwang Moo Yi, Oncel
Tuzel
- Abstract要約: 本研究では,点雲を表面のように描画する新しい手法を提案する。
提案手法は識別可能であり,シーン固有の最適化を必要としない。
- 参考スコア(独自算出の注目度): 30.485621062087585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel method that renders point clouds as if they are surfaces.
The proposed method is differentiable and requires no scene-specific
optimization. This unique capability enables, out-of-the-box, surface normal
estimation, rendering room-scale point clouds, inverse rendering, and ray
tracing with global illumination. Unlike existing work that focuses on
converting point clouds to other representations--e.g., surfaces or implicit
functions--our key idea is to directly infer the intersection of a light ray
with the underlying surface represented by the given point cloud. Specifically,
we train a set transformer that, given a small number of local neighbor points
along a light ray, provides the intersection point, the surface normal, and the
material blending weights, which are used to render the outcome of this light
ray. Localizing the problem into small neighborhoods enables us to train a
model with only 48 meshes and apply it to unseen point clouds. Our model
achieves higher estimation accuracy than state-of-the-art surface
reconstruction and point-cloud rendering methods on three test sets. When
applied to room-scale point clouds, without any scene-specific optimization,
the model achieves competitive quality with the state-of-the-art novel-view
rendering methods. Moreover, we demonstrate ability to render and manipulate
Lidar-scanned point clouds such as lighting control and object insertion.
- Abstract(参考訳): 本研究では,点雲を表面のように描画する新しい手法を提案する。
提案手法は微分可能であり,シーン固有の最適化は不要である。
このユニークな機能は、アウトオブボックス、サーフェスノーマル推定、ルームスケールのポイントクラウドのレンダリング、逆レンダリング、グローバル照明によるレイトレーシングを可能にする。
点雲を他の表現(例えば、曲面や暗黙の関数)に変換することに焦点を当てた既存の研究とは異なり、鍵となるアイデアは、光線と所定の点雲で表される基底面との交差を直接推測することである。
具体的には、光線に沿った少数の局所的な近傍点を与えられたとき、この光線の結果を表すために使用される交差点、表面正規値、物質混合重みを与えるセットトランスを訓練する。
問題を小さな地区にローカライズすることで、48メッシュのモデルをトレーニングし、目に見えない点の雲に適用することができます。
本モデルは,3つのテストセット上での最先端表面再構成およびポイントクラウドレンダリング手法よりも高い推定精度を実現する。
室内スケールの点雲に適用した場合、シーン固有の最適化なしに、このモデルは最先端のノベルビューレンダリング手法と競合する品質を達成する。
さらに,照明制御や物体挿入などのLidar走査点雲をレンダリングし,操作する能力を示す。
関連論文リスト
- INPC: Implicit Neural Point Clouds for Radiance Field Rendering [5.64500060725726]
現実世界のシーンを再現し、新しい視点で合成するための新しいアプローチを提案する。
本研究では,連続オクツリー型確率場とマルチ解像度ハッシュグリッドにおける点雲を暗黙的に符号化するハイブリッドシーン表現を提案する。
本手法は,対話的なフレームレートで高速な推論を実現し,さらに性能を高めるために露骨な点雲を抽出することができる。
論文 参考訳(メタデータ) (2024-03-25T15:26:32Z) - Quadric Representations for LiDAR Odometry, Mapping and Localization [93.24140840537912]
現在のLiDARオードメトリ、マッピング、ローカライズ手法は、3Dシーンのポイントワイズ表現を利用する。
3次元オブジェクトのよりコンパクトな表現である2次元曲面を用いたシーン記述法を提案する。
提案手法は低レイテンシとメモリの有効性を維持しつつ、競争力があり、しかも精度も優れている。
論文 参考訳(メタデータ) (2023-04-27T13:52:01Z) - Boosting Point Clouds Rendering via Radiance Mapping [49.24193509772339]
コンパクトなモデル設計でポイントクラウドレンダリングの画質向上に重点を置いている。
我々はNeRF表現を1ピクセルあたりの単一評価しか必要としない空間マッピング関数に単純化する。
提案手法は点雲上での最先端のレンダリングを実現し,先行研究を顕著なマージンで上回った。
論文 参考訳(メタデータ) (2022-10-27T01:25:57Z) - Spotlights: Probing Shapes from Spherical Viewpoints [25.824284796437652]
本研究では3次元形状を1次元の奥行き値のコンパクトな配列として表現するスポットライトと呼ばれる新しいサンプリングモデルを提案する。
球面上に均等に分布するカメラの構成をシミュレートし、それぞれの仮想カメラがその主点から小さな同心球状キャップに試料点を通して光線を流し、球面に囲まれた物体との交点を探索する。
論文 参考訳(メタデータ) (2022-05-25T08:23:18Z) - Reconstructing Surfaces for Sparse Point Clouds with On-Surface Priors [52.25114448281418]
現在の方法では、接地距離や点正規化なしに単一点雲から符号付き距離関数 (Signed Distance Function, SDF) を学習することで、表面を再構築することができる。
そこで本稿では, 表面上の粗い点雲から高精度な表面を復元することを提案する。
本手法は, 接地距離や点正規化を伴わずに, 単一のスパース点雲からSDFを学習することができる。
論文 参考訳(メタデータ) (2022-04-22T09:45:20Z) - Neural Point Light Fields [80.98651520818785]
本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
論文 参考訳(メタデータ) (2021-12-02T18:20:10Z) - Learning Gradient Fields for Shape Generation [69.85355757242075]
点雲は、その形状の表面に密度が集中している3D点の分布からサンプルと見なすことができる。
非正規化確率密度の勾配上昇を行うことで点雲を生成する。
本モデルは,ログ密度場の勾配を直接予測し,スコアベース生成モデルに適応した単純な目的で学習することができる。
論文 参考訳(メタデータ) (2020-08-14T18:06:15Z) - Meshing Point Clouds with Predicted Intrinsic-Extrinsic Ratio Guidance [30.863194319818223]
既存のポイントへの接続情報のみを付加することで、インプットポイントクラウドを可能な限り活用することを提案する。
私たちの重要なイノベーションはローカル接続のサロゲートであり、本質的/外生的メトリクスを比較して計算します。
提案手法は, 詳細を保存できるだけでなく, あいまいな構造を扱えるだけでなく, 目に見えないカテゴリに対して強い一般化性を持つことを示す。
論文 参考訳(メタデータ) (2020-07-17T22:36:00Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。