論文の概要: The Synthinel-1 dataset: a collection of high resolution synthetic
overhead imagery for building segmentation
- arxiv url: http://arxiv.org/abs/2001.05130v1
- Date: Wed, 15 Jan 2020 04:30:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 05:55:17.248821
- Title: The Synthinel-1 dataset: a collection of high resolution synthetic
overhead imagery for building segmentation
- Title(参考訳): Synthinel-1 データセット:建物セグメンテーションのための高分解能合成オーバーヘッド画像の収集
- Authors: Fanjie Kong, Bohao Huang, Kyle Bradbury, Jordan M. Malof
- Abstract要約: 我々は,大規模かつ多様な仮想環境を迅速かつ安価に生成する手法を開発した。
我々は,Synthinel-1が実世界のトレーニング画像の拡張に有用であることを示すために,いくつかのベンチマークデータセットを使用した。
- 参考スコア(独自算出の注目度): 1.5293427903448025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently deep learning - namely convolutional neural networks (CNNs) - have
yielded impressive performance for the task of building segmentation on large
overhead (e.g., satellite) imagery benchmarks. However, these benchmark
datasets only capture a small fraction of the variability present in real-world
overhead imagery, limiting the ability to properly train, or evaluate, models
for real-world application. Unfortunately, developing a dataset that captures
even a small fraction of real-world variability is typically infeasible due to
the cost of imagery, and manual pixel-wise labeling of the imagery. In this
work we develop an approach to rapidly and cheaply generate large and diverse
virtual environments from which we can capture synthetic overhead imagery for
training segmentation CNNs. Using this approach, generate and publicly-release
a collection of synthetic overhead imagery - termed Synthinel-1 with full
pixel-wise building labels. We use several benchmark dataset to demonstrate
that Synthinel-1 is consistently beneficial when used to augment real-world
training imagery, especially when CNNs are tested on novel geographic locations
or conditions.
- Abstract(参考訳): 最近、深層学習(すなわち畳み込みニューラルネットワーク(CNN))は、大きなオーバーヘッド(例えば衛星)の画像ベンチマークでセグメンテーションを構築するタスクにおいて、印象的なパフォーマンスをもたらした。
しかしながら、これらのベンチマークデータセットは、現実世界のオーバーヘッドイメージに存在する変数のごく一部のみをキャプチャし、現実世界のアプリケーションのモデルを適切にトレーニングまたは評価する能力を制限する。
残念ながら、画像のコストや手動による画像のラベル付けのために、現実の変動のごく一部をキャプチャするデータセットの開発は、通常不可能である。
本研究では,大規模かつ多様な仮想環境を迅速かつ安価に生成する手法を開発し,CNNを訓練するための合成オーバーヘッド画像を取得する。
このアプローチを使用して、合成オーバーヘッド画像のコレクションを生成し、公開リリースする。Synthinel-1と呼ばれ、完全なピクセルワイドなビルディングラベルを持つ。
いくつかのベンチマークデータセットを用いて、Synthinel-1は、特にCNNが新しい地理的な場所や条件でテストされる場合、現実世界のトレーニング画像の強化に使用される場合、一貫して有用であることを示す。
関連論文リスト
- Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Leveraging Representations from Intermediate Encoder-blocks for Synthetic Image Detection [13.840950434728533]
SID(State-of-the-art Synthetic Image Detection)研究は、基礎モデルからの特徴抽出の利点を強く証明している。
軽量ネットワークを介してCLIPの画像エンコーダの中間トランスフォーマーブロックから抽出した画像表現を利用する。
本手法は,20個のテストデータセットで評価し,平均+10.6%の絶対性能向上を示すことにより,最先端の手法と比較した。
論文 参考訳(メタデータ) (2024-02-29T12:18:43Z) - Diffusion-based Data Augmentation for Nuclei Image Segmentation [68.28350341833526]
核セグメンテーションのための拡散法を初めて導入する。
このアイデアは、多数のラベル付き画像を合成し、セグメンテーションモデルを訓練することを目的としている。
実験の結果,10%のラベル付き実データセットを合成サンプルで拡張することにより,同等のセグメンテーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-22T06:16:16Z) - Synthetic Data for Object Classification in Industrial Applications [53.180678723280145]
オブジェクト分類では、オブジェクトごとに、異なる条件下で、多数の画像を取得することは必ずしも不可能である。
本研究は,学習データセット内の限られたデータに対処するゲームエンジンを用いた人工画像の作成について検討する。
論文 参考訳(メタデータ) (2022-12-09T11:43:04Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - CrossLoc: Scalable Aerial Localization Assisted by Multimodal Synthetic
Data [2.554905387213586]
本稿では,合成データを用いて実世界のカメラポーズを推定する視覚的位置決めシステムを提案する。
データ不足を緩和するために,汎用な合成データ生成ツールTOPO-DataGenを導入する。
また、ポーズ推定のためのクロスモーダル視覚表現学習手法であるCrossLocを導入する。
論文 参考訳(メタデータ) (2021-12-16T18:05:48Z) - MetaPix: Domain Transfer for Semantic Segmentation by Meta Pixel
Weighting [1.9671123873378715]
我々はメタラーニングによって合成データのピクセルレベルの重み付けを学習する。
実験により, 1つのメタモジュールのみを用いた手法は, 対角的特徴アライメント, 再構成損失, および画素, 領域, 画像レベルの階層重み付けの複雑な組み合わせよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-10-05T01:31:00Z) - PennSyn2Real: Training Object Recognition Models without Human Labeling [12.923677573437699]
我々はPennSyn2Realを提案する。20種類以上のマイクロエアロビー(MAV)の10万以上の4K画像からなる合成データセットである。
このデータセットは、MAV検出や分類などのハイレベルコンピュータビジョンタスクのための任意の数のトレーニングイメージを生成するために使用することができる。
このフレームワークを用いて生成された合成データは,検出やセグメンテーションといった一般的なオブジェクト認識タスクに対して,CNNモデルをトレーニングするために直接利用できることを示す。
論文 参考訳(メタデータ) (2020-09-22T02:53:40Z) - Syn2Real Transfer Learning for Image Deraining using Gaussian Processes [92.15895515035795]
CNNに基づく画像デライニング手法は,再現誤差や視覚的品質の点で優れた性能を発揮している。
実世界の完全ラベル付き画像デライニングデータセットを取得する上での課題により、既存の手法は合成されたデータのみに基づいて訓練される。
本稿では,ガウス過程に基づく半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T00:33:18Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。