論文の概要: Enhancing Monocular Height Estimation from Aerial Images with
Street-view Images
- arxiv url: http://arxiv.org/abs/2311.02121v1
- Date: Fri, 3 Nov 2023 06:43:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 19:22:52.550424
- Title: Enhancing Monocular Height Estimation from Aerial Images with
Street-view Images
- Title(参考訳): ストリートビュー画像を用いた空中画像からの単色高さ推定
- Authors: Xiaomou Hou, Wanshui Gan and Naoto Yokoya
- Abstract要約: ストリートビュー画像を取り入れた単眼身長推定手法を提案する。
具体的には,ストリートビュー画像からの幾何学的制約を伴って,暗黙的な3次元シーン表現,密度場を最適化することを目的としている。
- 参考スコア(独自算出の注目度): 14.555228716999737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate height estimation from monocular aerial imagery presents a
significant challenge due to its inherently ill-posed nature. This limitation
is rooted in the absence of adequate geometric constraints available to the
model when training with monocular imagery. Without additional geometric
information to supplement the monocular image data, the model's ability to
provide reliable estimations is compromised.
In this paper, we propose a method that enhances monocular height estimation
by incorporating street-view images. Our insight is that street-view images
provide a distinct viewing perspective and rich structural details of the
scene, serving as geometric constraints to enhance the performance of monocular
height estimation. Specifically, we aim to optimize an implicit 3D scene
representation, density field, with geometry constraints from street-view
images, thereby improving the accuracy and robustness of height estimation. Our
experimental results demonstrate the effectiveness of our proposed method,
outperforming the baseline and offering significant improvements in terms of
accuracy and structural consistency.
- Abstract(参考訳): 単眼の空中画像からの正確な高さ推定は、本質的に不適切な性質のため重要な課題である。
この制限は、単眼画像で訓練する際にモデルに十分な幾何学的制約がないことに根ざしている。
単眼画像データを補う追加の幾何学的情報がないと、モデルが信頼できる推定を提供する能力が損なわれる。
本稿では,街路ビュー画像を取り込んだ単眼高さ推定手法を提案する。
我々の洞察では、ストリートビュー画像は、一様高さ推定の性能を高めるための幾何学的制約として、そのシーンの視点とリッチな構造的詳細を提供する。
具体的には,ストリートビュー画像からの幾何制約による暗黙的な3次元シーン表現,密度場を最適化し,高さ推定の精度とロバスト性を向上させることを目的とする。
提案手法の有効性を実証し,ベースラインを上回り,精度と構造的一貫性の面で大幅に改善した。
関連論文リスト
- Structure-Centric Robust Monocular Depth Estimation via Knowledge Distillation [9.032563775151074]
単眼深度推定はコンピュータビジョンにおける3次元知覚の重要な手法である。
現実のシナリオでは、悪天候の変動、動きのぼやけ、夜間の照明条件の悪いシーンなど、大きな課題に直面している。
我々は,局所的なテクスチャへの過度な依存を低減し,パターンの欠落や干渉に対する堅牢性を向上するための新しいアプローチを考案した。
論文 参考訳(メタデータ) (2024-10-09T15:20:29Z) - SphereDiffusion: Spherical Geometry-Aware Distortion Resilient Diffusion Model [63.685132323224124]
制御可能な球状パノラマ画像生成は、様々な領域でかなりの応用可能性を持っている。
本稿では,これらの課題に対処するために,SphereDiffusionの新しいフレームワークを提案する。
Structured3Dデータセットの実験では、SphereDiffusionは制御可能な球面画像生成の品質を大幅に改善し、平均して約35%のFIDを相対的に削減している。
論文 参考訳(メタデータ) (2024-03-15T06:26:46Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - GUPNet++: Geometry Uncertainty Propagation Network for Monocular 3D
Object Detection [95.8940731298518]
我々はGUPNet++(Geometry Uncertainty Propagation Network)を提案する。
トレーニング中の幾何射影の不確実性伝播関係をモデル化し、エンドツーエンドのモデル学習の安定性と効率を向上させる。
実験により,提案手法は画像ベースモノクロ3次元検出におけるSOTA性能を得るだけでなく,簡易なフレームワークで有効性を示す。
論文 参考訳(メタデータ) (2023-10-24T08:45:15Z) - Single-View Height Estimation with Conditional Diffusion Probabilistic
Models [1.8782750537161614]
我々は、マルコフ連鎖として光学画像とDSM画像の連成分布を学習するために、生成拡散モデルを訓練する。
これは、音源画像に条件付けされたままの復調スコアマッチング目標を最小化して、現実的な高解像度3次元表面を生成する。
本稿では,1枚のリモートセンシング画像から高度推定を行う条件付き拡散確率モデル(DDPM)を実験する。
論文 参考訳(メタデータ) (2023-04-26T00:37:05Z) - Wide-angle Image Rectification: A Survey [86.36118799330802]
広角画像は、基礎となるピンホールカメラモデルに反する歪みを含む。
これらの歪みを補正することを目的とした画像修正は、これらの問題を解決することができる。
本稿では、異なるアプローチで使用されるカメラモデルについて、詳細な説明と議論を行う。
次に,従来の幾何学に基づく画像修正手法と深層学習法の両方について検討する。
論文 参考訳(メタデータ) (2020-10-30T17:28:40Z) - Self-Supervised Learning for Monocular Depth Estimation from Aerial
Imagery [0.20072624123275526]
航空画像からの単眼深度推定のための自己教師型学習法を提案する。
このために、単一の移動カメラからの画像シーケンスのみを使用し、深度を同時に推定し、情報をポーズすることを学ぶ。
ポーズと深さ推定の重みを共有することによって、比較的小さなモデルが実現され、リアルタイムの応用が好まれる。
論文 参考訳(メタデータ) (2020-08-17T12:20:46Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。