論文の概要: Sim2Air - Synthetic aerial dataset for UAV monitoring
- arxiv url: http://arxiv.org/abs/2110.05145v1
- Date: Mon, 11 Oct 2021 10:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 19:14:27.294186
- Title: Sim2Air - Synthetic aerial dataset for UAV monitoring
- Title(参考訳): Sim2Air - UAV監視のための合成空中データセット
- Authors: Antonella Barisic and Frano Petric and Stjepan Bogdan
- Abstract要約: テクスチャランダム化を適用し,形状に基づくオブジェクト表現のアクセント化を提案する。
すべてのパラメータでフォトリアリズムを持つ多様なデータセットは、3DモデリングソフトウェアであるBlenderで作成される。
- 参考スコア(独自算出の注目度): 2.1638817206926855
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper we propose a novel approach to generate a synthetic aerial
dataset for application in UAV monitoring. We propose to accentuate shape-based
object representation by applying texture randomization. A diverse dataset with
photorealism in all parameters such as shape, pose, lighting, scale, viewpoint,
etc. except for atypical textures is created in a 3D modelling software
Blender. Our approach specifically targets two conditions in aerial images
where texture of objects is difficult to detect, namely illumination changes
and objects occupying only a small portion of the image. Experimental
evaluation confirmed our approach by increasing the mAP value by 17 and 3.7
points on two test datasets of real images. In analysing domain similarity, we
conclude that the more the generalisation capability is put to the test, the
more obvious are the advantages of the shape-based representation.
- Abstract(参考訳): 本稿では,UAV監視のための合成航空データセットを作成するための新しい手法を提案する。
テクスチャのランダム化を応用し,形状に基づく物体表現を強調する。
非定型テクスチャを除いて、形状、ポーズ、照明、スケール、視点など、あらゆるパラメータでフォトリアリズムを持つ多様なデータセットが、3DモデリングソフトウェアBlenderで作成される。
本手法は,物体のテクスチャの検出が困難である空中画像における2つの条件,すなわち照明変化と画像のごく一部を占める物体を対象とする。
実画像の2つのテストデータセットにおいて,マップ値を17点,3.7点増加させることで,実験的検討を行った。
ドメインの類似性を分析する上で、テストに一般化能力を加えるほど、より明らかになるのは形状に基づく表現の利点である。
関連論文リスト
- Sim2Real Bilevel Adaptation for Object Surface Classification using
Vision-Based Tactile Sensors [15.71945532506559]
我々は、物体表面を分類するための視覚ベースの触覚センサの分野におけるSim2Realギャップを橋渡しするために拡散モデルを訓練する。
我々は,YCBモデルセットから物体表面を均一にサンプリングして画像を生成するシミュレータを用いた。
これらのシミュレートされたイメージは、拡散モデルを使用して実際のドメインに変換され、自動的に分類器を訓練するためにラベル付けされる。
論文 参考訳(メタデータ) (2023-11-02T16:37:27Z) - Randomize to Generalize: Domain Randomization for Runway FOD Detection [1.4249472316161877]
細い物体検出は、小型化、低解像度化、オクルージョン化、背景クラッタ、照明条件、被写体対画像比の小さいため困難である。
本稿では,SRIA(Synthetic Image Augmentation)の新たな2段階手法を提案する。
検出精度は初期41%からOODテストセットの92%に改善した。
論文 参考訳(メタデータ) (2023-09-23T05:02:31Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z) - Learning to Generate 3D Representations of Building Roofs Using
Single-View Aerial Imagery [68.3565370706598]
本研究では,空撮画像から建物屋根メッシュの条件分布を学習するための新しいパイプラインを提案する。
同一物体の複数の画像を必要とする代替手法とは違って,本手法では,一つの画像のみを用いて予測を行う3次元屋根メッシュを推定できる。
論文 参考訳(メタデータ) (2023-03-20T15:47:05Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - GAN2X: Non-Lambertian Inverse Rendering of Image GANs [85.76426471872855]
GAN2Xは、教師なし画像のみをトレーニングに使用する、教師なし逆レンダリングの新しい手法である。
3次元形状を主眼とする従来のShape-from-GANアプローチとは異なり、GANが生成した擬似ペアデータを利用して、非ランベルト材料特性を復元する試みは初めてである。
実験により, GAN2Xは2次元画像を3次元形状, アルベド, 特異な特性に正確に分解し, 教師なしの単視3次元顔再構成の最先端性能を実現することができた。
論文 参考訳(メタデータ) (2022-06-18T16:58:49Z) - Ground material classification and for UAV-based photogrammetric 3D data
A 2D-3D Hybrid Approach [1.3359609092684614]
近年,物理環境を表す3次元仮想データを作成するために,多くの領域でフォトグラム法が広く用いられている。
これらの最先端技術は、迅速な3D戦場再建、仮想訓練、シミュレーションを目的として、アメリカ陸軍と海軍の注意を引き付けている。
論文 参考訳(メタデータ) (2021-09-24T22:29:26Z) - FiG-NeRF: Figure-Ground Neural Radiance Fields for 3D Object Category
Modelling [11.432178728985956]
我々はNeural Radiance Fields (NeRF) を用いて、入力画像のコレクションから高品質な3Dオブジェクトカテゴリモデルを学習する。
本手法は,測光とカジュアルキャプチャによる画像のみを用いて,高精度な3dオブジェクトカテゴリモデルを学習できることを示す。
論文 参考訳(メタデータ) (2021-04-17T01:38:54Z) - ShaRF: Shape-conditioned Radiance Fields from a Single View [54.39347002226309]
本稿では,単一の画像のみのオブジェクトの神経シーン表現を推定する手法を提案する。
この手法の核心は,対象物の幾何学的足場の推定である。
合成画像と実画像の両方において,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2021-02-17T16:40:28Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。