論文の概要: NOVA: NOvel View Augmentation for Neural Composition of Dynamic Objects
- arxiv url: http://arxiv.org/abs/2308.12560v1
- Date: Thu, 24 Aug 2023 05:00:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 15:16:20.831396
- Title: NOVA: NOvel View Augmentation for Neural Composition of Dynamic Objects
- Title(参考訳): NOVA: 動的物体のニューラルネットワーク合成のためのノーベルビュー拡張
- Authors: Dakshit Agrawal, Jiajie Xu, Siva Karthik Mustikovela, Ioannis
Gkioulekas, Ashish Shrivastava, Yuning Chai
- Abstract要約: 静的なシーンにおける動的物体の3次元写真リアルな合成のためのNeRFをトレーニングするためのノベルビュー拡張(NOVA)戦略を提案する。
従来の作業と比較して、新しいビューやタイムにおいて、複数の動的オブジェクトを3Dシーンに挿入する際のブレンディングアーティファクトを著しく削減する。
- 参考スコア(独自算出の注目度): 20.42714748483739
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel-view augmentation (NOVA) strategy to train NeRFs for
photo-realistic 3D composition of dynamic objects in a static scene. Compared
to prior work, our framework significantly reduces blending artifacts when
inserting multiple dynamic objects into a 3D scene at novel views and times;
achieves comparable PSNR without the need for additional ground truth
modalities like optical flow; and overall provides ease, flexibility, and
scalability in neural composition. Our codebase is on GitHub.
- Abstract(参考訳): 静的シーンにおける動的物体の3次元写真リアルな合成のためのNeRFをトレーニングするためのノベルビュー拡張(NOVA)戦略を提案する。
従来の作業と比較して、新しいビューや時間に複数の動的オブジェクトを3Dシーンに挿入する際のブレンディングアーティファクトを著しく削減し、光学的フローのような基底的真理のモダリティを必要とせずに同等のPSNRを実現し、全般的に神経合成の容易さ、柔軟性、スケーラビリティを提供する。
コードベースはGitHubにあります。
関連論文リスト
- Knowledge NeRF: Few-shot Novel View Synthesis for Dynamic Articulated Objects [8.981452149411714]
本稿では,動的シーンのための新しいビューを合成するための知識NeRFを提案する。
我々は、音声オブジェクトに対してNeRFモデルを事前訓練し、音声オブジェクトが移動すると、新しい状態における新しいビューを生成することを学習する。
論文 参考訳(メタデータ) (2024-03-31T12:45:23Z) - RoDUS: Robust Decomposition of Static and Dynamic Elements in Urban Scenes [3.1224202646855903]
都市景観における静的要素と動的要素を分解するパイプラインであるRoDUSについて,移動成分と非移動成分を念頭に分離したNeRFモデルを提案する。
この戦略により、シーン内のダイナミックスを正確にキャプチャし、背景再構成におけるNeRFによるアーティファクトの低減を実現することができる。
特に,KITTI-360およびPandasetデータセットを用いた実験により,挑戦的な都市景観を正確に静的かつ動的成分に分解する手法の有効性が示された。
論文 参考訳(メタデータ) (2024-03-14T14:08:59Z) - GO-NeRF: Generating Virtual Objects in Neural Radiance Fields [75.13534508391852]
GO-NeRFは、既存のNeRF内の高品質で調和した3Dオブジェクト生成にシーンコンテキストを利用することができる。
本手法では,生成した3次元オブジェクトをシームレスにシーンに合成する構成的レンダリング形式を用いる。
論文 参考訳(メタデータ) (2024-01-11T08:58:13Z) - DynMF: Neural Motion Factorization for Real-time Dynamic View Synthesis
with 3D Gaussian Splatting [35.69069478773709]
動的シーンの点当たりの運動は、明示的あるいは学習的な軌跡の小さなセットに分解することができると論じる。
我々の表現は解釈可能であり、効率的であり、複雑な動的シーンの動きのリアルタイムなビュー合成を提供するのに十分な表現力を持っている。
論文 参考訳(メタデータ) (2023-11-30T18:59:11Z) - DynaMoN: Motion-Aware Fast and Robust Camera Localization for Dynamic Neural Radiance Fields [71.94156412354054]
我々はDynaMoNを提案する。DynaMoNは、カメラのポーズ推定と、高速で正確なノベルビュー合成のためのスタティックス中心のレイサンプリングのための動的コンテンツを扱う。
我々の新しい反復学習方式は、NeRFのトレーニングとポーズパラメータの更新を切り替えて、改良された再構成と軌道推定の品質を向上する。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - Dynamic 3D Gaussians: Tracking by Persistent Dynamic View Synthesis [58.5779956899918]
動的シーンビュー合成と6自由度(6-DOF)追跡のタスクを同時に処理する手法を提案する。
我々は、シーンを3Dガウスアンのコレクションとしてモデル化する最近の研究に触発された、分析バイシンセサイザーの枠組みに従う。
我々は,1人称視点合成,動的合成シーン合成,4次元映像編集など,我々の表現によって実現された多数のダウンストリームアプリケーションを紹介した。
論文 参考訳(メタデータ) (2023-08-18T17:59:21Z) - OD-NeRF: Efficient Training of On-the-Fly Dynamic Neural Radiance Fields [63.04781030984006]
ダイナミック・ニューラル・レイディアンス・フィールド(ダイナミック・ニューラル・レイディアンス・フィールド)は、3次元ダイナミック・シーンにおける新しいビュー・シンセサイザーにおいて印象的な結果を示した。
本研究では,ダイナミックシーンのストリーミングが可能な動的NeRFを効率よく訓練・レンダリングするOD-NeRFを提案する。
本アルゴリズムは,6FPSトレーニングと合成動的シーンのレンダリングのインタラクティブな高速化を実現し,実世界の動的シーンの最先端と比較して,大幅なスピードアップを実現している。
論文 参考訳(メタデータ) (2023-05-24T07:36:47Z) - BLiRF: Bandlimited Radiance Fields for Dynamic Scene Modeling [43.246536947828844]
本稿では,帯域制限された高次元信号の合成としてシーンを定式化し,時間と空間を分解するフレームワークを提案する。
我々は、照明、テクスチャ、長距離ダイナミクスの変化を含む複雑な動的シーンにまたがる魅力的な結果を実証する。
論文 参考訳(メタデータ) (2023-02-27T06:40:32Z) - DynIBaR: Neural Dynamic Image-Based Rendering [79.44655794967741]
複雑な動的シーンを描写したモノクロ映像から新しいビューを合成する問題に対処する。
我々は,近傍のビューから特徴を集約することで,新しい視点を合成するボリューム画像ベースのレンダリングフレームワークを採用する。
動的シーンデータセットにおける最先端手法の大幅な改善を示す。
論文 参考訳(メタデータ) (2022-11-20T20:57:02Z) - Neural Trajectory Fields for Dynamic Novel View Synthesis [40.9665251865609]
我々は動的シーンの座標に基づくニューラル表現であるDCT-NeRFを紹介する。
空間の各点の入力シーケンス上で、滑らかで安定した軌跡を学習します。
これにより、シーケンス内の2つのフレーム間の一貫性を強制することができ、その結果、高品質の再構築が可能になります。
論文 参考訳(メタデータ) (2021-05-12T22:38:30Z) - D-NeRF: Neural Radiance Fields for Dynamic Scenes [72.75686949608624]
そこで我々は,D-NeRF(D-NeRF)を動的領域に拡張する手法を提案する。
D-NeRFは、周囲を動き回るカメラから、剛体で非剛体な動きの下で物体のイメージを再構成する。
我々は,剛体・調音・非剛体動作下での物体のシーンに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-11-27T19:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。