論文の概要: Learning to Generate 3D Representations of Building Roofs Using
Single-View Aerial Imagery
- arxiv url: http://arxiv.org/abs/2303.11215v1
- Date: Mon, 20 Mar 2023 15:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 14:52:25.742923
- Title: Learning to Generate 3D Representations of Building Roofs Using
Single-View Aerial Imagery
- Title(参考訳): 単視点空中画像を用いた建物屋根の3次元表現の学習
- Authors: Maxim Khomiakov, Alejandro Valverde Mahou, Alba Reinders S\'anchez,
Jes Frellsen, Michael Riis Andersen
- Abstract要約: 本研究では,空撮画像から建物屋根メッシュの条件分布を学習するための新しいパイプラインを提案する。
同一物体の複数の画像を必要とする代替手法とは違って,本手法では,一つの画像のみを用いて予測を行う3次元屋根メッシュを推定できる。
- 参考スコア(独自算出の注目度): 68.3565370706598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel pipeline for learning the conditional distribution of a
building roof mesh given pixels from an aerial image, under the assumption that
roof geometry follows a set of regular patterns. Unlike alternative methods
that require multiple images of the same object, our approach enables
estimating 3D roof meshes using only a single image for predictions. The
approach employs the PolyGen, a deep generative transformer architecture for 3D
meshes. We apply this model in a new domain and investigate the sensitivity of
the image resolution. We propose a novel metric to evaluate the performance of
the inferred meshes, and our results show that the model is robust even at
lower resolutions, while qualitatively producing realistic representations for
out-of-distribution samples.
- Abstract(参考訳): 本研究では,屋根形状が規則的パターン群に従うことを前提として,空中画像から与えられた画素による建物屋根メッシュの条件分布を学習する新しいパイプラインを提案する。
同一物体の複数の画像を必要とする他の方法とは異なり、予測のために単一の画像のみを使用して3dルーフメッシュを推定できる。
このアプローチでは、3Dメッシュのための深層生成トランスフォーマーアーキテクチャであるPolyGenを採用している。
このモデルを新しい領域に適用し,画像解像度の感度について検討する。
提案手法は, 予測メッシュの性能を評価するための新しい指標であり, 結果から, モデルが低解像度でも頑健であり, 分布外サンプルのリアルな表現を質的に生成することを示した。
関連論文リスト
- DreamPolish: Domain Score Distillation With Progressive Geometry Generation [66.94803919328815]
本稿では,高精細な幾何学と高品質なテクスチャの創出に優れたテキスト・ツー・3D生成モデルであるDreamPolishを紹介する。
幾何構成フェーズでは, 合成過程の安定性を高めるために, 複数のニューラル表現を利用する。
テクスチャ生成フェーズでは、そのような領域に向けて神経表現を導くために、新しいスコア蒸留、すなわちドメインスコア蒸留(DSD)を導入する。
論文 参考訳(メタデータ) (2024-11-03T15:15:01Z) - GTR: Improving Large 3D Reconstruction Models through Geometry and Texture Refinement [51.97726804507328]
マルチビュー画像から3次元メッシュを再構成する手法を提案する。
提案手法は, 変圧器を用いたトリプレーンジェネレータとニューラルレージアンスフィールド(NeRF)モデルを用いた大規模再構成モデルから着想を得たものである。
論文 参考訳(メタデータ) (2024-06-09T05:19:24Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Flow-based GAN for 3D Point Cloud Generation from a Single Image [16.04710129379503]
本稿では,任意の解像度の点群をサンプリングするためのフローベース明示的生成モデルを継承する,ハイブリッドな明示的生成モデルを提案する。
大規模合成データセットShapeNetについて評価し,提案手法の優れた性能を示す実験結果を得た。
論文 参考訳(メタデータ) (2022-10-08T17:58:20Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - Leveraging Monocular Disparity Estimation for Single-View Reconstruction [8.583436410810203]
単分子深度推定の進歩を利用して不均一マップを得る。
我々は,2次元の正規化不均質マップを,関連するカメラパラメータの最適化によって3次元の点群に変換する。
論文 参考訳(メタデータ) (2022-07-01T03:05:40Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Sim2Air - Synthetic aerial dataset for UAV monitoring [2.1638817206926855]
テクスチャランダム化を適用し,形状に基づくオブジェクト表現のアクセント化を提案する。
すべてのパラメータでフォトリアリズムを持つ多様なデータセットは、3DモデリングソフトウェアであるBlenderで作成される。
論文 参考訳(メタデータ) (2021-10-11T10:36:33Z) - Using Adaptive Gradient for Texture Learning in Single-View 3D
Reconstruction [0.0]
3次元モデル再構築のための学習ベースのアプローチは、現代の応用によって注目を集めている。
本稿では,サンプリング画像のばらつきに基づいて予測座標の勾配を最適化し,新しいサンプリングアルゴリズムを提案する。
また,frechetインセプション距離(fid)を用いて学習における損失関数を形成し,レンダリング画像と入力画像とのギャップを橋渡しする。
論文 参考訳(メタデータ) (2021-04-29T07:52:54Z) - An Effective Loss Function for Generating 3D Models from Single 2D Image
without Rendering [0.0]
微分レンダリングは、シングルビュー3Dレコンストラクションに適用できる非常に成功した技術である。
電流は、ある3d再構成対象のレンダリング画像と、与えられたマッチング視点からの接地画像との間のピクセルによる損失を利用して、3d形状のパラメータを最適化する。
再構成された3次元点群の投影が地上真理物体のシルエットをどの程度覆うかを評価する新しい効果的な損失関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T00:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。