論文の概要: TriVol: Point Cloud Rendering via Triple Volumes
- arxiv url: http://arxiv.org/abs/2303.16485v1
- Date: Wed, 29 Mar 2023 06:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 15:56:56.768055
- Title: TriVol: Point Cloud Rendering via Triple Volumes
- Title(参考訳): TriVol: 3つのボリュームによるポイントクラウドレンダリング
- Authors: Tao Hu, Xiaogang Xu, Ruihang Chu, Jiaya Jia
- Abstract要約: 我々は,高密度かつ軽量な3D表現であるTriVolをNeRFと組み合わせて,点雲から写実的な画像を描画する。
我々のフレームワークは、微調整なしでシーン/オブジェクトのカテゴリを描画できる優れた一般化能力を持っている。
- 参考スコア(独自算出の注目度): 57.305748806545026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing learning-based methods for point cloud rendering adopt various 3D
representations and feature querying mechanisms to alleviate the sparsity
problem of point clouds. However, artifacts still appear in rendered images,
due to the challenges in extracting continuous and discriminative 3D features
from point clouds. In this paper, we present a dense while lightweight 3D
representation, named TriVol, that can be combined with NeRF to render
photo-realistic images from point clouds. Our TriVol consists of triple slim
volumes, each of which is encoded from the point cloud. TriVol has two
advantages. First, it fuses respective fields at different scales and thus
extracts local and non-local features for discriminative representation.
Second, since the volume size is greatly reduced, our 3D decoder can be
efficiently inferred, allowing us to increase the resolution of the 3D space to
render more point details. Extensive experiments on different benchmarks with
varying kinds of scenes/objects demonstrate our framework's effectiveness
compared with current approaches. Moreover, our framework has excellent
generalization ability to render a category of scenes/objects without
fine-tuning.
- Abstract(参考訳): 既存の学習ベースのポイントクラウドレンダリング手法では、さまざまな3D表現と特徴クエリ機構を採用して、ポイントクラウドのスパーシリティ問題を緩和している。
しかし、ポイントクラウドから連続的かつ差別的な3d特徴を抽出することの難しさから、レンダリング画像にはまだアーティファクトが現れる。
本稿では,細密で軽量な3d表現であるtrivolについて紹介する。これはnrfと組み合わせて,点雲からフォトリアリスティックな画像を生成することができる。
我々のTriVolは3つのスリムボリュームで構成されており、それぞれが点雲から符号化されている。
TriVolには2つの利点がある。
まず、異なるスケールで各分野を融合させ、差別表現のために局所的および非局所的特徴を抽出する。
第二に、ボリュームサイズが大幅に小さくなるため、3Dデコーダを効率よく推論することができ、3D空間の解像度を高め、より詳細な点を描画することができる。
様々なシーン/オブジェクトの異なるベンチマークに関する広範囲な実験は、現在のアプローチと比較して、フレームワークの有効性を示しています。
さらに,本フレームワークは,微調整なしでシーン/オブジェクトのカテゴリを描画できる優れた一般化機能を備えている。
関連論文リスト
- Intrinsic Image Decomposition Using Point Cloud Representation [13.771632868567277]
本稿では3次元クラウドデータを利用してアルベドとシェーディングマップを同時に推定するPoint Intrinsic Net(PoInt-Net)を紹介する。
PoInt-Netは効率的で、任意のサイズのポイントクラウドで一貫したパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-07-20T14:51:28Z) - Point2Pix: Photo-Realistic Point Cloud Rendering via Neural Radiance
Fields [63.21420081888606]
最近の放射場と拡張法は、2次元入力から現実的な画像を合成するために提案されている。
我々は3次元スパース点雲と2次元高密度画像画素を結びつけるための新しい点としてPoint2Pixを提示する。
論文 参考訳(メタデータ) (2023-03-29T06:26:55Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - Sparse Fuse Dense: Towards High Quality 3D Detection with Depth
Completion [31.52721107477401]
現在のLiDARのみの3D検出方法は、必然的に点雲の間隔に悩まされる。
本稿では,奥行き完了から発生する疑似点雲を利用した,新しいマルチモーダルフレームワークSFD(Sparse Fuse Dense)を提案する。
本手法は, SFD の有効性を実証し, 3D オブジェクト検出リーダボードのKITTI カーにおける最上位項目を保持する。
論文 参考訳(メタデータ) (2022-03-18T07:56:35Z) - Voint Cloud: Multi-View Point Cloud Representation for 3D Understanding [80.04281842702294]
本稿では,複数の視点から抽出した特徴の集合として,各3次元点を表す多視点クラウド(Voint Cloud)の概念を紹介する。
この新しい3次元Vointクラウド表現は、3Dポイントクラウド表現のコンパクト性と、マルチビュー表現の自然なビュー認識性を組み合わせたものである。
理論的に確立された機能を持つVointニューラルネットワーク(VointNet)をデプロイし,Voint空間の表現を学習する。
論文 参考訳(メタデータ) (2021-11-30T13:08:19Z) - How Privacy-Preserving are Line Clouds? Recovering Scene Details from 3D
Lines [49.06411148698547]
本稿では,3次元シーン形状に関する情報がライン雲に保存されていることを示す。
我々のアプローチは、直線間の最接近点が元の3d点に良い近似をもたらすという観測に基づいている。
論文 参考訳(メタデータ) (2021-03-08T21:32:43Z) - ImVoteNet: Boosting 3D Object Detection in Point Clouds with Image Votes [93.82668222075128]
RGB-Dシーンに対するImVoteNetと呼ばれる3次元検出アーキテクチャを提案する。
ImVoteNetは、画像に2D票、ポイントクラウドに3D票を投じることに基づいている。
挑戦的なSUN RGB-Dデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-01-29T05:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。