論文の概要: DiffDreamer: Consistent Single-view Perpetual View Generation with
Conditional Diffusion Models
- arxiv url: http://arxiv.org/abs/2211.12131v1
- Date: Tue, 22 Nov 2022 10:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:10:55.825957
- Title: DiffDreamer: Consistent Single-view Perpetual View Generation with
Conditional Diffusion Models
- Title(参考訳): DiffDreamer: 条件付き拡散モデルによる一眼一眼ビュー生成
- Authors: Shengqu Cai, Eric Ryan Chan, Songyou Peng, Mohamad Shahbazi, Anton
Obukhov, Luc Van Gool and Gordon Wetzstein
- Abstract要約: DiffDreamerは、長いカメラの軌跡を描いた新しいビューを合成できるフレームワークであり、自然の風景をインターネットで収集した画像のみをトレーニングする。
画像条件付き拡散モデルでは,局所的および大域的整合性を従来のGAN法よりも大幅に向上させながら,長距離シーン外挿を効果的に行うことができることを示す。
- 参考スコア(独自算出の注目度): 91.94566873400277
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Perpetual view generation -- the task of generating long-range novel views by
flying into a given image -- has been a novel yet promising task. We introduce
DiffDreamer, an unsupervised framework capable of synthesizing novel views
depicting a long camera trajectory while training solely on internet-collected
images of nature scenes. We demonstrate that image-conditioned diffusion models
can effectively perform long-range scene extrapolation while preserving both
local and global consistency significantly better than prior GAN-based methods.
Project page: https://primecai.github.io/diffdreamer .
- Abstract(参考訳): 永遠のビュー生成 — 与えられた画像に飛び込んで長距離のノベルビューを生成するタスク — は、新しいが有望なタスクだ。
我々は,インターネットで収集された自然シーンの画像を訓練しながら,長眼カメラの軌跡を描いた新たなビューを合成することのできる教師なしフレームワークであるdiffdreamerを紹介する。
従来のgan法よりも局所的および大域的一貫性を保ちつつ,画像条件拡散モデルが長距離シーンの補間を効果的に行うことを実証する。
プロジェクトページ: https://primecai.github.io/diffdreamer。
関連論文リスト
- MultiDiff: Consistent Novel View Synthesis from a Single Image [60.04215655745264]
MultiDiffは、単一のRGB画像からシーンを一貫した新しいビュー合成のための新しいアプローチである。
以上の結果から,MultiDiffは,課題の多いリアルタイムデータセットであるRealEstate10KとScanNetにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-26T17:53:51Z) - SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - DiffPortrait3D: Controllable Diffusion for Zero-Shot Portrait View Synthesis [18.64688172651478]
本稿では,DiffPortrait3Dについて述べる。DiffPortrait3Dは,3次元一貫性のあるフォトリアリスティック・ノベルビューを合成できる条件拡散モデルである。
一つのRGB入力が与えられた場合、我々は、新しいカメラビューから表現された、可塑性だが一貫した顔の詳細を合成することを目指している。
我々は、我々の挑戦的インザワイルドとマルチビューのベンチマークにおいて、質的にも定量的にも、最先端の結果を実証する。
論文 参考訳(メタデータ) (2023-12-20T13:31:11Z) - DreamDrone: Text-to-Image Diffusion Models are Zero-shot Perpetual View Generators [56.994967294931286]
テキストプロンプトからフライスルーシーンを生成する新しいゼロショット・トレーニングフリーパイプラインであるDreamDroneを紹介する。
我々は、高品質な画像生成と非有界な一般化能力のために、事前訓練されたテキスト・画像拡散モデルの中間潜時符号を明示的に修正することを提唱する。
論文 参考訳(メタデータ) (2023-12-14T08:42:26Z) - DiffuVST: Narrating Fictional Scenes with Global-History-Guided
Denoising Models [6.668241588219693]
ビジュアルなストーリーテリングは、現実のイメージを超えてますます求められている。
一般的に自己回帰デコーダを使用する現在の技術は、推論速度が低く、合成シーンには適していない。
本稿では,一連の視覚的記述を単一条件記述プロセスとしてモデル化する拡散型システムDiffuVSTを提案する。
論文 参考訳(メタデータ) (2023-12-12T08:40:38Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Diffusion-based Generation, Optimization, and Planning in 3D Scenes [89.63179422011254]
本稿では,3次元シーン理解のための条件付き生成モデルであるSceneDiffuserを紹介する。
SceneDiffuserは本質的にシーン認識、物理ベース、ゴール指向である。
従来のモデルに比べて大幅な改善が見られた。
論文 参考訳(メタデータ) (2023-01-15T03:43:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。