論文の概要: GECCO: Geometrically-Conditioned Point Diffusion Models
- arxiv url: http://arxiv.org/abs/2303.05916v2
- Date: Mon, 25 Sep 2023 14:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 03:43:13.507237
- Title: GECCO: Geometrically-Conditioned Point Diffusion Models
- Title(参考訳): gecco:幾何条件点拡散モデル
- Authors: Micha{\l} J. Tyszkiewicz, Pascal Fua, Eduard Trulls
- Abstract要約: テキスト上で条件付き画像を生成する拡散モデルが最近,コンピュータビジョンコミュニティをはるかに超えている。
ここでは、無条件および条件付きの両方の点雲を画像で生成するという、関連する問題に取り組む。
後者では,スパーク画像の特徴を点雲に投影することに基づく,幾何学的動機付けによる新しい条件付け手法を提案する。
- 参考スコア(独自算出の注目度): 60.28388617034254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models generating images conditionally on text, such as Dall-E 2
and Stable Diffusion, have recently made a splash far beyond the computer
vision community. Here, we tackle the related problem of generating point
clouds, both unconditionally, and conditionally with images. For the latter, we
introduce a novel geometrically-motivated conditioning scheme based on
projecting sparse image features into the point cloud and attaching them to
each individual point, at every step in the denoising process. This approach
improves geometric consistency and yields greater fidelity than current methods
relying on unstructured, global latent codes. Additionally, we show how to
apply recent continuous-time diffusion schemes. Our method performs on par or
above the state of art on conditional and unconditional experiments on
synthetic data, while being faster, lighter, and delivering tractable
likelihoods. We show it can also scale to diverse indoors scenes.
- Abstract(参考訳): Dall-E 2やStable Diffusionのようなテキストで条件付き画像を生成する拡散モデルは、最近コンピュータビジョンのコミュニティをはるかに超えている。
ここでは,無条件および条件条件にともなう点雲生成に関する関連する問題に取り組む。
後者については,点雲にスパース画像特徴を投影し,各点に個別に付加し,その分割過程の各ステップにおいて,新たな幾何学的動機づけ条件付けスキームを導入する。
このアプローチは幾何学的整合性を改善し、非構造的でグローバルな潜在符号に依存する現在の方法よりも忠実性が高い。
さらに,最近の連続時間拡散スキームの適用方法を示す。
本手法は, より高速で, 軽量で, 抽出可能な可能性を提供しつつ, 合成データに対する条件付きおよび無条件の実験を行う。
また、屋内の多様なシーンにも拡大可能である。
関連論文リスト
- Point Cloud Resampling with Learnable Heat Diffusion [58.050130177241186]
ポイントクラウド再サンプリングのための学習可能な熱拡散フレームワークを提案する。
前の固定された拡散モデルとは異なり、適応条件は点雲の幾何学的特徴を選択的に保存する。
論文 参考訳(メタデータ) (2024-11-21T13:44:18Z) - MultiDiff: Consistent Novel View Synthesis from a Single Image [60.04215655745264]
MultiDiffは、単一のRGB画像からシーンを一貫した新しいビュー合成のための新しいアプローチである。
以上の結果から,MultiDiffは,課題の多いリアルタイムデータセットであるRealEstate10KとScanNetにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-26T17:53:51Z) - Binary Opacity Grids: Capturing Fine Geometric Detail for Mesh-Based
View Synthesis [70.40950409274312]
我々は、細い構造を再構築する能力を損なうことなく、表面への収束を促すために密度場を変更する。
また, メッシュの単純化と外観モデルの適合により, 融合型メッシュ方式を開発した。
私たちのモデルで生成されたコンパクトメッシュは、モバイルデバイス上でリアルタイムでレンダリングできます。
論文 参考訳(メタデータ) (2024-02-19T18:59:41Z) - Improving Diffusion-Based Image Synthesis with Context Prediction [49.186366441954846]
既存の拡散モデルは、主に、劣化した画像から空間軸に沿って画素幅または特徴幅の制約で入力画像を再構成しようとする。
文脈予測を用いて拡散に基づく画像合成を改善するためのConPreDiffを提案する。
我々のConPreDiffは従来手法を一貫して上回り、ゼロショットFIDスコア6.21で、MS-COCO上で新たなSOTAテキスト・画像生成結果を達成する。
論文 参考訳(メタデータ) (2024-01-04T01:10:56Z) - BuilDiff: 3D Building Shape Generation using Single-Image Conditional
Point Cloud Diffusion Models [15.953480573461519]
画像条件付き点雲拡散モデルを用いた新しい3次元ビルディング形状生成法を提案する。
新たに構築された2つのデータセット上でフレームワークを検証した結果,提案手法が生成品質の面で従来の手法よりも優れていたことが確認された。
論文 参考訳(メタデータ) (2023-08-31T22:17:48Z) - PoseDiffusion: Solving Pose Estimation via Diffusion-aided Bundle
Adjustment [21.98302129015761]
本稿では,確率的拡散フレームワーク内での運動構造(SfM)問題を定式化することを提案する。
本稿では,従来のSfMパイプラインよりもPoseDiffusionが大幅に改善されていることを示す。
本手法は,さらなるトレーニングを行なわずにデータセットをまたいで一般化できることが観察された。
論文 参考訳(メタデータ) (2023-06-27T17:59:07Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - Geometry of Score Based Generative Models [2.4078030278859113]
幾何学的観点からScoreベースの生成モデル(拡散生成モデルとも呼ばれる)を考察する。
確率測度の空間における雑音の追加とノイズ発生の前後過程がワッサーシュタイン勾配流であることを証明した。
論文 参考訳(メタデータ) (2023-02-09T02:39:11Z) - Deep Equilibrium Approaches to Diffusion Models [1.4275201654498746]
拡散に基づく生成モデルは高品質な画像を生成するのに極めて効果的である。
これらのモデルは通常、高忠実度画像を生成するために長いサンプリングチェーンを必要とする。
我々は、異なる観点からの拡散モデル、すなわち(深い)平衡(DEQ)固定点モデルについて考察する。
論文 参考訳(メタデータ) (2022-10-23T22:02:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。