論文の概要: SkyScenes: A Synthetic Dataset for Aerial Scene Understanding
- arxiv url: http://arxiv.org/abs/2312.06719v1
- Date: Mon, 11 Dec 2023 02:25:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 18:32:18.997296
- Title: SkyScenes: A Synthetic Dataset for Aerial Scene Understanding
- Title(参考訳): SkyScenes: 航空シーン理解のための合成データセット
- Authors: Sahil Khose, Anisha Pal, Aayushi Agarwal, Deepanshi, Judy Hoffman,
Prithvijit Chattopadhyay
- Abstract要約: 無人航空機の視点から高密度に注釈付けされた空中画像のデータセットSkyScenesを提示する。
SkyScenesで訓練されたモデルは、様々な現実世界のシナリオによく当てはまることを示す。
- 参考スコア(独自算出の注目度): 14.360969493489698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world aerial scene understanding is limited by a lack of datasets that
contain densely annotated images curated under a diverse set of conditions. Due
to inherent challenges in obtaining such images in controlled real-world
settings, we present SkyScenes, a synthetic dataset of densely annotated aerial
images captured from Unmanned Aerial Vehicle (UAV) perspectives. We carefully
curate SkyScenes images from CARLA to comprehensively capture diversity across
layout (urban and rural maps), weather conditions, times of day, pitch angles
and altitudes with corresponding semantic, instance and depth annotations.
Through our experiments using SkyScenes, we show that (1) Models trained on
SkyScenes generalize well to different real-world scenarios, (2) augmenting
training on real images with SkyScenes data can improve real-world performance,
(3) controlled variations in SkyScenes can offer insights into how models
respond to changes in viewpoint conditions, and (4) incorporating additional
sensor modalities (depth) can improve aerial scene understanding.
- Abstract(参考訳): 実世界の航空シーンの理解は、様々な条件の下でキュレーションされた濃密な注釈付き画像を含むデータセットの不足によって制限される。
そこで,本研究では,無人航空機(uav)の視点から撮影した高濃度アノテートされた空中画像の合成データセットであるskyscenesを提案する。
我々は、CARLAのSkyScenes画像を慎重にキュレートし、レイアウト(アーバンマップと農村マップ)、気象条件、日時、ピッチ角、高度を、対応する意味、例、深さアノテーションで包括的に把握する。
1)SkyScenesを用いた実験により,(1)SkyScenesで訓練されたモデルが現実のシナリオに順応し,(2)SkyScenesデータによる実画像のトレーニングが実世界のパフォーマンスを向上させること,(3)SkyScenesの制御されたバリエーションが,視点条件の変化にモデルがどのように反応するか,(4)追加のセンサモード(深度)を組み込むことで空間の理解が向上すること,などが示されている。
関連論文リスト
- Sat2Scene: 3D Urban Scene Generation from Satellite Images with
Diffusion [82.97474530980999]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - HawkI: Homography & Mutual Information Guidance for 3D-free Single Image to Aerial View [67.8213192993001]
本稿では,テキストと模範画像から空中視像を合成するためのHawkeIを提案する。
HawkIは、予め訓練されたテキストから2次元の安定拡散モデルに入力画像からの視覚的特徴をブレンドする。
推測において、HawkeIは、入力画像の意味的詳細を忠実に複製するために生成されたイメージを操るために、ユニークな相互情報ガイダンスの定式化を用いる。
論文 参考訳(メタデータ) (2023-11-27T01:41:25Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - ViewNeRF: Unsupervised Viewpoint Estimation Using Category-Level Neural
Radiance Fields [35.89557494372891]
ニューラルラジアンス場に基づく視点推定法であるViewNeRFを導入する。
提案手法は,条件付きNeRFと視点予測器とシーンエンコーダを組み合わせた合成手法を用いて解析を行う。
本モデルでは,合成データセットと実データセットの競合結果を示す。
論文 参考訳(メタデータ) (2022-12-01T11:16:11Z) - BungeeNeRF: Progressive Neural Radiance Field for Extreme Multi-scale
Scene Rendering [145.95688637309746]
本稿では,大々的に変化するスケールにわたる詳細レンダリングを実現するプログレッシブ・ニューラル放射場である BungeeNeRF を紹介する。
多様なマルチスケールシーンをモデル化する上での BungeeNeRF の優位性を示す。
論文 参考訳(メタデータ) (2021-12-10T13:16:21Z) - Urban Radiance Fields [77.43604458481637]
本研究では,都市屋外環境における世界地図作成によく利用されるスキャニングプラットフォームによって収集されたデータから3次元再構成と新しいビュー合成を行う。
提案手法は、制御された環境下での小さなシーンのための現実的な新しい画像の合成を実証したニューラルラジアンス場を拡張している。
これら3つのエクステンションはそれぞれ、ストリートビューデータの実験において、大幅なパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2021-11-29T15:58:16Z) - Domain-Aware Unsupervised Hyperspectral Reconstruction for Aerial Image
Dehazing [16.190455993566864]
空中画像におけるヘイズ除去のためのSkyGANを提案する。
SkyGANは、1)ドメイン対応のH2Hモジュール、2)条件付きGAN(cGAN)ベースのマルチキュー画像-画像変換モジュール(I2I)から構成される。
論文 参考訳(メタデータ) (2020-11-07T03:30:52Z) - EAGLE: Large-scale Vehicle Detection Dataset in Real-World Scenarios
using Aerial Imagery [3.8902657229395894]
航空画像における物体方向情報を用いた多種多様な車両検出のための大規模データセットを提案する。
様々なカメラセンサー、解像度、飛行高度、天候、照明、ヘイズ、シャドウ、時間、都市、国、オクルージョン、カメラアングルを備えた、さまざまな現実世界の状況からなる高解像度の空中画像が特徴である。
215,986のインスタンスに4つのポイントと向きで定義された向き付きバウンディングボックスがアノテートされており、このタスクでこれまでで最大のデータセットとなっている。
また、ヘイズやシャドウ除去の研究や、超高解像度やインペイントの応用も支援している。
論文 参考訳(メタデータ) (2020-07-12T23:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。