論文の概要: Sharp Monocular View Synthesis in Less Than a Second
- arxiv url: http://arxiv.org/abs/2512.10685v1
- Date: Thu, 11 Dec 2025 14:34:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.412523
- Title: Sharp Monocular View Synthesis in Less Than a Second
- Title(参考訳): 1秒未満でシャープモノクラービューを合成する
- Authors: Lars Mescheder, Wei Dong, Shiwei Li, Xuyang Bai, Marcel Santos, Peiyun Hu, Bruno Lecouat, Mingmin Zhen, Amaël Delaunoy, Tian Fang, Yanghai Tsin, Stephan R. Richter, Vladlen Koltun,
- Abstract要約: SHARPは、単一の画像からフォトリアリスティックなビュー合成へのアプローチである。
描写シーンの3次元ガウス表現のパラメータを回帰する。
この表現はメートル法であり、絶対スケールで、メートル法カメラの動きをサポートする。
- 参考スコア(独自算出の注目度): 35.462567193718385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present SHARP, an approach to photorealistic view synthesis from a single image. Given a single photograph, SHARP regresses the parameters of a 3D Gaussian representation of the depicted scene. This is done in less than a second on a standard GPU via a single feedforward pass through a neural network. The 3D Gaussian representation produced by SHARP can then be rendered in real time, yielding high-resolution photorealistic images for nearby views. The representation is metric, with absolute scale, supporting metric camera movements. Experimental results demonstrate that SHARP delivers robust zero-shot generalization across datasets. It sets a new state of the art on multiple datasets, reducing LPIPS by 25-34% and DISTS by 21-43% versus the best prior model, while lowering the synthesis time by three orders of magnitude. Code and weights are provided at https://github.com/apple/ml-sharp
- Abstract(参考訳): 本稿では,SHARPについて述べる。
1枚の写真が与えられたSHARPは、描写されたシーンの3Dガウス表現のパラメータを回帰する。
これは、単一のフィードフォワードがニューラルネットワークを通過することで、標準GPU上で1秒未満で実行される。
SHARPによって生成された3Dガウス表現はリアルタイムでレンダリングされ、近くのビューのために高解像度のフォトリアリスティック画像が得られる。
この表現はメートル法であり、絶対スケールで、メートル法カメラの動きをサポートする。
実験により、SHARPはデータセット間で堅牢なゼロショット一般化を提供することが示された。
LPIPSを25~34%、DisTSを21~43%減らし、合成時間を3桁減らした。
コードとウェイトはhttps://github.com/apple/ml-sharpで提供されている。
関連論文リスト
- GS^3: Efficient Relighting with Triple Gaussian Splatting [20.950152448082623]
我々はポイントライトの入力画像から、リアルタイムで高品質な光とビューを提示する。
各空間ガウスに対して有効反射関数としてランベルティアン+角ガウスの混合を用いる。
我々は,1つのコモディティGPU上で40~70分,レンダリング速度90fpsのトレーニング時間を達成した。
論文 参考訳(メタデータ) (2024-10-15T09:11:30Z) - Few-shot Novel View Synthesis using Depth Aware 3D Gaussian Splatting [0.0]
3次元ガウススプラッティングは、新しいビュー合成における神経放射場法を超越している。
多数のインプットビューを備えた高品質なレンダリングを生成するが、ほんの数ビューしか利用できない場合、パフォーマンスは大幅に低下する。
数発の新規ビュー合成のための奥行き認識型ガウススプラッティング法を提案する。
論文 参考訳(メタデータ) (2024-10-14T20:42:30Z) - Splatter Image: Ultra-Fast Single-View 3D Reconstruction [67.96212093828179]
Splatter ImageはGaussian Splattingをベースにしており、複数の画像から3Dシーンを高速かつ高品質に再現することができる。
テスト時に38FPSでフィードフォワードで再構成を行うニューラルネットワークを学習する。
いくつかの総合、実、マルチカテゴリ、大規模ベンチマークデータセットにおいて、トレーニング中にPSNR、LPIPS、その他のメトリクスでより良い結果を得る。
論文 参考訳(メタデータ) (2023-12-20T16:14:58Z) - Relit-NeuLF: Efficient Relighting and Novel View Synthesis via Neural 4D
Light Field [69.90548694719683]
本稿ではRelit-NeuLFと呼ばれる分析合成手法を提案する。
まず、4次元座標系で各光線をパラメータ化し、効率的な学習と推論を可能にする。
総合的な実験により,提案手法は合成データと実世界の顔データの両方において効率的かつ効果的であることが実証された。
論文 参考訳(メタデータ) (2023-10-23T07:29:51Z) - Real-Time Radiance Fields for Single-Image Portrait View Synthesis [85.32826349697972]
本研究では,1つの未提示画像からリアルタイムに3D表現を推測・描画するワンショット手法を提案する。
一つのRGB入力が与えられた場合、画像エンコーダは、ボリュームレンダリングによる3次元新規ビュー合成のためのニューラルラディアンスフィールドの標準三面体表現を直接予測する。
提案手法は消費者ハードウェア上で高速(24fps)であり,テスト時間最適化を必要とする強力なGAN反転ベースラインよりも高品質な結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T17:56:01Z) - One-Shot Neural Fields for 3D Object Understanding [112.32255680399399]
ロボット工学のための統一的でコンパクトなシーン表現を提案する。
シーン内の各オブジェクトは、幾何学と外観をキャプチャする潜在コードによって描写される。
この表現は、新しいビューレンダリングや3D再構成、安定した把握予測といった様々なタスクのためにデコードできる。
論文 参考訳(メタデータ) (2022-10-21T17:33:14Z) - pi-GAN: Periodic Implicit Generative Adversarial Networks for 3D-Aware
Image Synthesis [45.51447644809714]
高品質な3D画像合成のための新しい生成モデルである周期的インプリシット生成適応ネットワーク(pi$-GAN または pi-GAN)を提案する。
提案手法は,複数の実・合成データセットを用いた3次元認識画像合成のための最先端結果を得る。
論文 参考訳(メタデータ) (2020-12-02T01:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。