論文の概要: TRANSPR: Transparency Ray-Accumulating Neural 3D Scene Point Renderer
- arxiv url: http://arxiv.org/abs/2009.02819v1
- Date: Sun, 6 Sep 2020 21:19:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 08:32:09.177826
- Title: TRANSPR: Transparency Ray-Accumulating Neural 3D Scene Point Renderer
- Title(参考訳): TransPR: 透明光集積型ニューラル3Dシーンポイントレンダ
- Authors: Maria Kolos, Artem Sevastopolsky, Victor Lempitsky
- Abstract要約: 本稿では,半透明シーンをモデル化可能なニューラルポイントベースグラフィックス手法を提案し,評価する。
半透明な点雲のシーンの新たなビューは、我々のアプローチでトレーニングした後に生成できることを示す。
- 参考スコア(独自算出の注目度): 6.320273914694594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose and evaluate a neural point-based graphics method that can model
semi-transparent scene parts. Similarly to its predecessor pipeline, ours uses
point clouds to model proxy geometry, and augments each point with a neural
descriptor. Additionally, a learnable transparency value is introduced in our
approach for each point.
Our neural rendering procedure consists of two steps. Firstly, the point
cloud is rasterized using ray grouping into a multi-channel image. This is
followed by the neural rendering step that "translates" the rasterized image
into an RGB output using a learnable convolutional network. New scenes can be
modeled using gradient-based optimization of neural descriptors and of the
rendering network.
We show that novel views of semi-transparent point cloud scenes can be
generated after training with our approach. Our experiments demonstrate the
benefit of introducing semi-transparency into the neural point-based modeling
for a range of scenes with semi-transparent parts.
- Abstract(参考訳): 半透明シーンをモデル化するニューラルポイントベースグラフィック手法を提案し,その評価を行った。
前身のパイプラインと同様に、wesはプロキシジオメトリのモデル化にポイントクラウドを使用し、各ポイントをニューラルネットワーク記述子で拡張する。
さらに、各ポイントのアプローチで学習可能な透明性値を導入しました。
我々のニューラルレンダリング手順は2つのステップからなる。
まず、多チャンネル画像にレイグルーピングを用いて点雲をラスタライズする。
次に、学習可能な畳み込みネットワークを使用してラスタ化画像をRGB出力に“翻訳”するニューラルネットワークレンダリングステップが続く。
ニューラルディスクリプタとレンダリングネットワークの勾配に基づく最適化を使用して、新しいシーンをモデル化することができる。
半透明点クラウドシーンの新しいビューは、我々のアプローチでトレーニングした後生成できることを示します。
実験では,半透明部分を有するシーンのニューラルポイントベースモデリングに半透明性を導入することの利点を実証する。
関連論文リスト
- PFGS: High Fidelity Point Cloud Rendering via Feature Splatting [5.866747029417274]
スパースポイントから高品質な画像をレンダリングする新しいフレームワークを提案する。
この手法はまず3次元ガウス格子と点雲のレンダリングを橋渡しする。
異なるベンチマーク実験により、レンダリング品質と主成分の必要性の観点から、我々の手法の優位性を示す。
論文 参考訳(メタデータ) (2024-07-04T11:42:54Z) - DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Volume Feature Rendering for Fast Neural Radiance Field Reconstruction [11.05302598034426]
ニューラルレイディアンス場(NeRF)は、異なる位置と視点から撮影された多視点画像から現実的な新しいビューを合成することができる。
NeRFのレンダリングパイプラインでは、ニューラルネットワークはシーンを独立して表現したり、期待される色や密度のポイントのクエリ可能な特徴ベクトルを変換するために使用される。
提案手法では,まず,まず線の特徴ベクトルを描画し,次にニューラルネットワークにより最終画素色に変換する。
論文 参考訳(メタデータ) (2023-05-29T06:58:27Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - TermiNeRF: Ray Termination Prediction for Efficient Neural Rendering [18.254077751772005]
ニューラルネットワークを用いたボリュームレンダリングは、3Dシーンの新たなビューをキャプチャして合成する上で大きな可能性を秘めている。
この種のアプローチでは、画像をレンダリングするために、各ビューレイに沿って複数のポイントでボリュームネットワークをクエリする必要がある。
本稿では,この限界を克服するために,画素の最終的な外観に影響を与える可能性が最も高いカメラ線から,光線に沿った位置への直接マッピングを学習する手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T17:50:44Z) - Neural Rays for Occlusion-aware Image-based Rendering [108.34004858785896]
我々は,ニューラルレイ(NeuRay)と呼ばれるニューラル表現を,マルチビューイメージを入力として,新しいビュー合成(NVS)タスクのために提案する。
NeuRayは、微調整の少ない未確認シーンの高品質なノベルビューレンダリング画像を生成することができる。
論文 参考訳(メタデータ) (2021-07-28T15:09:40Z) - Light Field Networks: Neural Scene Representations with
Single-Evaluation Rendering [60.02806355570514]
2次元観察から3Dシーンの表現を推定することは、コンピュータグラフィックス、コンピュータビジョン、人工知能の基本的な問題である。
そこで我々は,360度4次元光場における基礎となる3次元シーンの形状と外観の両面を表現した新しいニューラルシーン表現,光場ネットワーク(LFN)を提案する。
LFNからレイをレンダリングするには*single*ネットワークの評価しか必要としない。
論文 参考訳(メタデータ) (2021-06-04T17:54:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。