論文の概要: ImageDream: Image-Prompt Multi-view Diffusion for 3D Generation
- arxiv url: http://arxiv.org/abs/2312.02201v1
- Date: Sat, 2 Dec 2023 20:41:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 18:36:47.726395
- Title: ImageDream: Image-Prompt Multi-view Diffusion for 3D Generation
- Title(参考訳): ImageDream:3D生成のための画像プロンプト多視点拡散
- Authors: Peng Wang and Yichun Shi
- Abstract要約: 画像Dreamは3次元オブジェクト生成のための革新的な画像プロンプト・マルチビュー拡散モデルである。
提案手法では,画像中の物体に対する標準カメラ調整を利用して,視覚的幾何学的精度を向上する。
- 参考スコア(独自算出の注目度): 13.937824761162956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce "ImageDream," an innovative image-prompt, multi-view diffusion
model for 3D object generation. ImageDream stands out for its ability to
produce 3D models of higher quality compared to existing state-of-the-art,
image-conditioned methods. Our approach utilizes a canonical camera
coordination for the objects in images, improving visual geometry accuracy. The
model is designed with various levels of control at each block inside the
diffusion model based on the input image, where global control shapes the
overall object layout and local control fine-tunes the image details. The
effectiveness of ImageDream is demonstrated through extensive evaluations using
a standard prompt list. For more information, visit our project page at
https://Image-Dream.github.io.
- Abstract(参考訳): 3dオブジェクト生成のための革新的な画像プロンプトマルチビュー拡散モデル「imagedream」を提案する。
imagedreamは、既存の最先端のイメージコンディション方式と比較して、高品質の3dモデルを作る能力で際立っている。
提案手法では,画像中の物体に対する標準カメラ調整を利用して,視覚的幾何学的精度を向上する。
このモデルは、入力画像に基づいて拡散モデル内の各ブロックにおける様々なレベルの制御で設計されており、グローバル制御は全体のオブジェクトレイアウトを形作り、局所制御は画像の詳細を微調整する。
ImageDreamの有効性は、標準プロンプトリストを用いて広範囲な評価によって実証される。
詳細については、https://Image-Dream.github.io.comのプロジェクトページを参照してほしい。
関連論文リスト
- VistaDream: Sampling multiview consistent images for single-view scene reconstruction [63.991582576387856]
VistaDreamは、単一のビューイメージから3Dシーンを再構築するフレームワークである。
近年の拡散モデルでは、単一ビューの入力画像から高品質のノベルビュー画像を生成することができる。
論文 参考訳(メタデータ) (2024-10-22T10:55:59Z) - Hi3D: Pursuing High-Resolution Image-to-3D Generation with Video Diffusion Models [112.2625368640425]
High- resolution Image-to-3D model (Hi3D) はビデオ拡散に基づく新しいパラダイムであり、単一の画像を3D対応シーケンシャル画像生成としてマルチビュー画像に再定義する。
Hi3Dは事前に学習した映像拡散モデルを3D対応で強化し、低解像度のテクスチャディテールを持つマルチビュー画像を生成する。
論文 参考訳(メタデータ) (2024-09-11T17:58:57Z) - MVDiff: Scalable and Flexible Multi-View Diffusion for 3D Object Reconstruction from Single-View [0.0]
本稿では,単一画像から一貫した多視点画像を生成するための一般的なフレームワークを提案する。
提案モデルは,PSNR,SSIM,LPIPSなどの評価指標において,ベースライン法を超える3Dメッシュを生成することができる。
論文 参考訳(メタデータ) (2024-05-06T22:55:53Z) - Multi-view Image Prompted Multi-view Diffusion for Improved 3D Generation [48.595946437886774]
我々は、入力プロンプトとしてマルチビュー画像をサポートするために、新しい画像プロンプト多視点拡散モデルであるImageDreamを構築した。
我々の手法はMultiImageDreamと呼ばれ、シングルイメージプロンプトからマルチイメージプロンプトへの移行により、マルチビューおよび3Dオブジェクト生成の性能が向上することを明らかにする。
論文 参考訳(メタデータ) (2024-04-26T13:55:39Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - DreamComposer: Controllable 3D Object Generation via Multi-View Conditions [45.4321454586475]
最近の作品では、ワン・イン・ザ・ワイルド画像から高品質なノベルビューを生成することができる。
複数の視点からの情報がないため、これらは制御可能な新しい視点を生み出すのに困難に直面する。
我々はDreamComposerについて述べる。DreamComposerはフレキシブルでスケーラブルなフレームワークで、マルチビュー条件を注入することで既存のビュー認識拡散モデルを強化することができる。
論文 参考訳(メタデータ) (2023-12-06T16:55:53Z) - IPDreamer: Appearance-Controllable 3D Object Generation with Complex Image Prompts [90.49024750432139]
IPDreamerは複雑な$textbfI$mage $textbfP$romptsから複雑な外観特徴をキャプチャし、合成した3Dオブジェクトをこれらの特徴と整合させる。
IPDreamerはテキストと複雑な画像のプロンプトに整合した高品質な3Dオブジェクトを一貫して生成することを示した。
論文 参考訳(メタデータ) (2023-10-09T03:11:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。