論文の概要: Flexible Techniques for Differentiable Rendering with 3D Gaussians
- arxiv url: http://arxiv.org/abs/2308.14737v1
- Date: Mon, 28 Aug 2023 17:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 12:43:37.583673
- Title: Flexible Techniques for Differentiable Rendering with 3D Gaussians
- Title(参考訳): 3次元ガウスを用いたフレキシブルレンダリング技術
- Authors: Leonid Keselman, Martial Hebert
- Abstract要約: ニューラル・ラディアンス・フィールズ(Neural Radiance Fields)は、フォトリアリスティック・ノベルビューが到達範囲内にあることを示した。
特に3次元水密メッシュと1線当たりのレンダリングによる代替形状表現の拡張を開発した。
これらの再構築は高速で堅牢で、GPUやCPU上で容易に実行できる。
- 参考スコア(独自算出の注目度): 29.602516169951556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fast, reliable shape reconstruction is an essential ingredient in many
computer vision applications. Neural Radiance Fields demonstrated that
photorealistic novel view synthesis is within reach, but was gated by
performance requirements for fast reconstruction of real scenes and objects.
Several recent approaches have built on alternative shape representations, in
particular, 3D Gaussians. We develop extensions to these renderers, such as
integrating differentiable optical flow, exporting watertight meshes and
rendering per-ray normals. Additionally, we show how two of the recent methods
are interoperable with each other. These reconstructions are quick, robust, and
easily performed on GPU or CPU. For code and visual examples, see
https://leonidk.github.io/fmb-plus
- Abstract(参考訳): 高速で信頼性の高い形状復元は、多くのコンピュータビジョン応用において必須の要素である。
ニューラル・ラミアンス・フィールドは、フォトリアリスティックな新しいビュー合成が到達範囲内にあることを証明したが、実際のシーンやオブジェクトを高速に再構築するための性能要件によってゲートされた。
最近のいくつかのアプローチは代替形状表現、特に3次元ガウス表現に基づいている。
我々はこれらのレンダラーの拡張を開発する。例えば、可変光フローの統合、水密メッシュの輸出、線当たりのレンダリングなどである。
さらに,最近の2つの手法が相互運用可能であることを示す。
これらの再構築は高速で堅牢で、GPUやCPU上で容易に実行できる。
コードとビジュアルの例については、https://leonidk.github.io/fmb-plus
関連論文リスト
- 3D Convex Splatting: Radiance Field Rendering with 3D Smooth Convexes [87.01284850604495]
多視点画像から幾何学的に有意な放射場をモデル化するためのプリミティブとして3次元滑らかな凸を利用した3次元凸法(3DCS)を提案する。
3DCSは、MipNeizer, Tanks and Temples, Deep Blendingなどのベンチマークで、3DGSよりも優れたパフォーマンスを実現している。
本結果は,高品質なシーン再構築のための新しい標準となる3Dコンベクシングの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T14:31:39Z) - LumiGauss: Relightable Gaussian Splatting in the Wild [15.11759492990967]
本稿では,LumiGaussについて紹介する。LumiGaussは2次元ガウススプラッティングによるシーンの3次元再構成と環境照明を実現する技術である。
提案手法は高品質なシーン再構成を実現し,新しい環境マップ下でのリアルな照明合成を実現する。
提案手法をNeRF-OSRデータセット上で検証し,ベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-06T23:41:57Z) - 3D Gaussian Ray Tracing: Fast Tracing of Particle Scenes [50.36933474990516]
本研究は, 粒子のトレーシング, 境界体積階層の構築, 高性能なレイトレーシングハードウェアを用いた各画素のレイキャストについて考察する。
半透明粒子の多量処理を効率的に行うために,有界メッシュで粒子をカプセル化するアルゴリズムについて述べる。
実験は、我々のアプローチの速度と精度、およびコンピュータグラフィックスとビジョンにおけるいくつかの応用を実証する。
論文 参考訳(メタデータ) (2024-07-09T17:59:30Z) - LaRa: Efficient Large-Baseline Radiance Fields [32.86296116177701]
本稿では,トランス層における局所的および大域的推論を統一する手法を提案する。
我々のモデルはガウスボリュームとしてシーンを表現し、これを画像エンコーダとグループ注意層と組み合わせて効率的なフィードフォワード再構築を行う。
論文 参考訳(メタデータ) (2024-07-05T17:59:58Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction [53.28220984270622]
3次元再構成法はリアルタイムに3次元整合性のある高忠実度結果を生成する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - FLARE: Fast Learning of Animatable and Relightable Mesh Avatars [64.48254296523977]
私たちのゴールは、幾何学的に正確で、リアルで、楽しい、現在のレンダリングシステムと互換性のあるビデオから、パーソナライズ可能な3Dアバターを効率的に学習することです。
単眼ビデオからアニマタブルアバターとリライトブルアバターの作成を可能にする技術であるFLAREを紹介する。
論文 参考訳(メタデータ) (2023-10-26T16:13:00Z) - HQ3DAvatar: High Quality Controllable 3D Head Avatar [65.70885416855782]
本稿では,高フォトリアリスティックなデジタルヘッドアバターを構築するための新しいアプローチを提案する。
本手法はニューラルネットワークによってパラメータ化された暗黙関数を用いて標準空間を学習する。
テスト時,本手法は単眼のRGBビデオによって駆動される。
論文 参考訳(メタデータ) (2023-03-25T13:56:33Z) - Approximate Differentiable Rendering with Algebraic Surfaces [24.7500811470085]
ファジィメタボールはコンパクトで解釈可能な表現に対して近似微分可能である。
我々の近似は、深度マップとシルエットによる形状の描画に焦点を当てている。
メッシュベースの微分可能値と比較して、我々の手法は前方パスが5倍速く、後方パスが30倍高速である。
論文 参考訳(メタデータ) (2022-07-21T16:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。