論文の概要: HORIZON: High-Resolution Semantically Controlled Panorama Synthesis
- arxiv url: http://arxiv.org/abs/2210.04522v2
- Date: Sat, 27 Jan 2024 08:42:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 01:06:46.203914
- Title: HORIZON: High-Resolution Semantically Controlled Panorama Synthesis
- Title(参考訳): ホリゾン:高分解能セマンティックパノラマ合成
- Authors: Kun Yan, Lei Ji, Chenfei Wu, Jian Liang, Ming Zhou, Nan Duan, Shuai Ma
- Abstract要約: パノラマ合成は、仮想世界の中心にユーザーを没入させ、360度の視覚的な風景を再現する。
視覚合成の最近の進歩は、2次元平面画像における意味制御の可能性を解き放ったが、これらの手法のパノラマ合成への直接的応用は歪んだ内容を生み出す。
我々は,高分解能パノラマを生成するための革新的な枠組みを公表し,洗練された球面モデリングによる球面歪みとエッジ不連続性の問題に着目した。
- 参考スコア(独自算出の注目度): 105.55531244750019
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Panorama synthesis endeavors to craft captivating 360-degree visual
landscapes, immersing users in the heart of virtual worlds. Nevertheless,
contemporary panoramic synthesis techniques grapple with the challenge of
semantically guiding the content generation process. Although recent
breakthroughs in visual synthesis have unlocked the potential for semantic
control in 2D flat images, a direct application of these methods to panorama
synthesis yields distorted content. In this study, we unveil an innovative
framework for generating high-resolution panoramas, adeptly addressing the
issues of spherical distortion and edge discontinuity through sophisticated
spherical modeling. Our pioneering approach empowers users with semantic
control, harnessing both image and text inputs, while concurrently streamlining
the generation of high-resolution panoramas using parallel decoding. We
rigorously evaluate our methodology on a diverse array of indoor and outdoor
datasets, establishing its superiority over recent related work, in terms of
both quantitative and qualitative performance metrics. Our research elevates
the controllability, efficiency, and fidelity of panorama synthesis to new
levels.
- Abstract(参考訳): パノラマ合成は、仮想世界の中心にユーザーを没入させ、360度の視覚風景を再現する。
それでも、現代のパノラマ合成技術は、コンテンツ生成過程を意味的に導くことの難しさを補っている。
最近の視覚合成のブレークスルーは、2次元平面画像における意味制御の可能性を解き放ったが、これらの手法のパノラマ合成への直接的応用は歪んだ内容を生み出す。
本研究では,高度球面モデリングによる球面歪みとエッジの不連続性の問題に際し,高分解能パノラマを生成するための革新的な枠組みを提案する。
我々の先駆的なアプローチは、画像とテキストの入力を併用したセマンティックコントロールをユーザに提供すると同時に、並列デコーディングによる高解像度パノラマ生成を並列に効率化する。
我々は,室内および屋外の多様なデータセットに対する方法論を厳格に評価し,定量的および定性的なパフォーマンス指標の両面で,最近の研究よりも優位性を確立した。
本研究は,パノラマ合成の制御性,効率,忠実度を新たなレベルに引き上げるものである。
関連論文リスト
- ViewCrafter: Taming Video Diffusion Models for High-fidelity Novel View Synthesis [63.169364481672915]
単一またはスパース画像からジェネリックシーンの高忠実な新規ビューを合成する新しい方法である textbfViewCrafter を提案する。
提案手法は,映像拡散モデルの強力な生成能力と,ポイントベース表現によって提供される粗い3D手がかりを利用して高品質な映像フレームを生成する。
論文 参考訳(メタデータ) (2024-09-03T16:53:19Z) - Layered Rendering Diffusion Model for Zero-Shot Guided Image Synthesis [60.260724486834164]
本稿では,テキストクエリに依存する拡散モデルにおける空間制御性向上のための革新的な手法を提案する。
視覚誘導(Vision Guidance)とレイヤーレンダリング拡散(Layered Rendering Diffusion)フレームワーク(Layered Diffusion)という2つの重要なイノベーションを提示します。
本稿では,ボックス・ツー・イメージ,セマンティック・マスク・ツー・イメージ,画像編集の3つの実践的応用に適用する。
論文 参考訳(メタデータ) (2023-11-30T10:36:19Z) - DeLiRa: Self-Supervised Depth, Light, and Radiance Fields [32.350984950639656]
可変ボリュームレンダリングは、3次元再構成と新しいビュー合成のための強力なパラダイムである。
標準的なボリュームレンダリングアプローチは、視点の多様性が限られている場合、縮退したジオメトリーと競合する。
本研究では,多視点測光目標を体積レンダリングのための幾何正則化器として用いることを提案する。
論文 参考訳(メタデータ) (2023-04-06T00:16:25Z) - Consistent View Synthesis with Pose-Guided Diffusion Models [51.37925069307313]
単一の画像から新しいビューを合成することは、多くのバーチャルリアリティーアプリケーションにとって画期的な問題である。
本稿では,ポーズ誘導拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-03-30T17:59:22Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Semantic View Synthesis [56.47999473206778]
我々はセマンティック・ビュー・シンセサイザーの新たな課題に取り組み、セマンティック・ラベル・マップを入力として、合成シーンの自由視点レンダリングを生成する。
まず,3次元映像の視覚面の色と深度を合成することに焦点を当てた。
次に、合成色と深度を用いて、多面画像(MPI)表現予測プロセスに明示的な制約を課す。
論文 参考訳(メタデータ) (2020-08-24T17:59:46Z) - GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis [43.4859484191223]
近年,単一シーンの新規なビュー合成に成功している放射場生成モデルを提案する。
マルチスケールのパッチベース判別器を導入し,非姿勢の2次元画像からモデルを訓練しながら高解像度画像の合成を実演する。
論文 参考訳(メタデータ) (2020-07-05T20:37:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。