論文の概要: Adjustable Visual Appearance for Generalizable Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2306.01344v1
- Date: Fri, 2 Jun 2023 08:17:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 16:14:35.820767
- Title: Adjustable Visual Appearance for Generalizable Novel View Synthesis
- Title(参考訳): 一般化可能な新しい視点合成のための調整可能な視覚外観
- Authors: Josef Bengtson, David Nilsson, Che-Tsung Lin, Marcel B\"usching and
Fredrik Kahl
- Abstract要約: 本研究では,対象の天気や照明条件に合わせてレンダリングされたビューの視覚的外観を変更可能な新しいビュー合成手法を提案する。
本手法は,異なる外観条件下で合成シーンを訓練した一般化可能なトランスフォーマーアーキテクチャに基づく。
- 参考スコア(独自算出の注目度): 16.168439714852557
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a generalizable novel view synthesis method where it is possible
to modify the visual appearance of rendered views to match a target weather or
lighting condition. Our method is based on a generalizable transformer
architecture, trained on synthetically generated scenes under different
appearance conditions. This allows for rendering novel views in a consistent
manner of 3D scenes that were not included in the training set, along with the
ability to (i) modify their appearance to match the target condition and (ii)
smoothly interpolate between different conditions. Experiments on both real and
synthetic scenes are provided including both qualitative and quantitative
evaluations. Please refer to our project page for video results:
https://ava-nvs.github.io/
- Abstract(参考訳): 対象の天気や照明条件に合わせてレンダリングされたビューの視覚的外観を変更することが可能な、汎用的な新規ビュー合成手法を提案する。
本手法は,異なる外観条件下で合成シーンを訓練した一般化可能なトランスフォーマーアーキテクチャに基づく。
これにより、トレーニングセットに含まれていない3dシーンの一貫性のある方法で、新しいビューをレンダリングすることができる。
(i)その外観を目標条件に合わせるように変更し、
(ii)異なる条件間をスムーズに補間する。
実シーンと合成シーンの両方の実験は質的および定量的な評価を含む。
ビデオの結果については、プロジェクトページを参照してください。
関連論文リスト
- Sparse Input View Synthesis: 3D Representations and Reliable Priors [0.8158530638728501]
新しいビュー合成はコンピュータビジョンとグラフィックスの基本的な問題である。
最近の3D表現は、新しい視点からレンダリングされた画像の品質を著しく向上させる。
静的シーンと動的シーンの両方に対するスパース入力新規ビュー合成問題に焦点をあてる。
論文 参考訳(メタデータ) (2024-11-20T18:45:46Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Control-NeRF: Editable Feature Volumes for Scene Rendering and
Manipulation [58.16911861917018]
高品質な新規ビュー合成を実現しつつ,フレキシブルな3次元画像コンテンツ操作を実現するための新しい手法を提案する。
モデルペアはシーンに依存しないニューラルネットワークを用いてシーン固有の特徴ボリュームを学習する。
我々は、シーンの混合、オブジェクトの変形、シーンへのオブジェクト挿入など、さまざまなシーン操作を実証すると同時に、写真リアリスティックな結果も生成する。
論文 参考訳(メタデータ) (2022-04-22T17:57:00Z) - Towards 3D Scene Understanding by Referring Synthetic Models [65.74211112607315]
メソッドは通常、実際のシーンスキャンにおける過剰なアノテーションを緩和する。
合成モデルは、合成特徴の実際のシーンカテゴリを、統一された特徴空間にどのように依存するかを考察する。
実験の結果,ScanNet S3DISデータセットの平均mAPは46.08%,学習データセットは55.49%であった。
論文 参考訳(メタデータ) (2022-03-20T13:06:15Z) - Scene Representation Transformer: Geometry-Free Novel View Synthesis
Through Set-Latent Scene Representations [48.05445941939446]
コンピュータビジョンにおける古典的な問題は、インタラクティブなレートで新しいビューを描画するのに使用できる少数の画像から3Dシーン表現を推論することである。
SRT(Scene Representation Transformer)は,新しい領域のRGB画像のポーズ処理やアンポーズ処理を行う手法である。
本手法は,PSNRおよび合成データセットの速度において,最近のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-25T16:18:56Z) - Appearance Editing with Free-viewpoint Neural Rendering [6.3417651529192005]
多視点画像からのシーンの同時合成と外観編集のためのフレームワークを提案する。
当社のアプローチでは、外観を明示的に切り離し、それとは独立して照明表現を学ぶ。
実際のシーンの外観を編集する結果を示し,提案手法が妥当な外観編集を実現することを示す。
論文 参考訳(メタデータ) (2021-10-14T19:14:05Z) - Stylizing 3D Scene via Implicit Representation and HyperNetwork [34.22448260525455]
簡単な解決策は、既存の新しいビュー合成と画像/ビデオスタイルの転送アプローチを組み合わせることである。
ニューラルレイディアンスフィールド(NeRF)法の高品質な結果にインスパイアされ,新しいビューを所望のスタイルで直接描画するジョイントフレームワークを提案する。
本フレームワークは,ニューラルネットワークを用いた3次元シーンの暗黙的表現と,シーン表現にスタイル情報を転送するハイパーネットワークという2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2021-05-27T09:11:30Z) - IBRNet: Learning Multi-View Image-Based Rendering [67.15887251196894]
本稿では,近接ビューの疎集合を補間することにより,複雑なシーンの新しいビューを合成する手法を提案する。
レンダリング時にソースビューを描画することで、画像ベースのレンダリングに関する古典的な作業に戻ります。
論文 参考訳(メタデータ) (2021-02-25T18:56:21Z) - Non-Rigid Neural Radiance Fields: Reconstruction and Novel View
Synthesis of a Dynamic Scene From Monocular Video [76.19076002661157]
Non-Rigid Neural Radiance Fields (NR-NeRF) は、一般的な非剛体動的シーンに対する再構成および新しいビュー合成手法である。
一つのコンシューマ級カメラでさえ、新しい仮想カメラビューからダイナミックシーンの洗練されたレンダリングを合成するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-12-22T18:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。