論文の概要: Towards Large-Scale Rendering of Simulated Crops for Synthetic Ground
Truth Generation on Modular Supercomputers
- arxiv url: http://arxiv.org/abs/2110.14946v1
- Date: Thu, 28 Oct 2021 08:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:27:09.444243
- Title: Towards Large-Scale Rendering of Simulated Crops for Synthetic Ground
Truth Generation on Modular Supercomputers
- Title(参考訳): シミュレーション作物の大規模レンダリングをめざして : モジュール型スーパーコンピュータ上での合成地層真実生成
- Authors: Dirk Norbert Helmrich, Jens Henrik G\"obbert, Mona Giraud, Hanno
Scharr, Andrea Schnepf, Morris Riedel
- Abstract要約: コンピュータビジョン問題は、カメラ画像から情報のセマンティック抽出を扱う。
深層ニューラルネットワークは、トレーニング例から必要なモデルを抽出するのに役立つ。
私たちはUnreal Engineを使って、大きくて複雑な仮想シーンをレンダリングしています。
- 参考スコア(独自算出の注目度): 3.94077399375841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer Vision problems deal with the semantic extraction of information
from camera images. Especially for field crop images, the underlying problems
are hard to label and even harder to learn, and the availability of
high-quality training data is low. Deep neural networks do a good job of
extracting the necessary models from training examples. However, they rely on
an abundance of training data that is not feasible to generate or label by
expert annotation. To address this challenge, we make use of the Unreal Engine
to render large and complex virtual scenes. We rely on the performance of
individual nodes by distributing plant simulations across nodes and both
generate scenes as well as train neural networks on GPUs, restricting node
communication to parallel learning.
- Abstract(参考訳): コンピュータビジョン問題は、カメラ画像からの情報の意味抽出を扱う。
特に畑の作物画像では、根底にある問題はラベル付けが難しく、さらに学習が難しく、高品質なトレーニングデータの可用性も低い。
深層ニューラルネットワークは、トレーニング例から必要なモデルを抽出するのに役立つ。
しかし、専門家のアノテーションによって生成またはラベル付けできない大量のトレーニングデータに依存している。
この課題に対処するために、我々はUnreal Engineを使って、大きく複雑な仮想シーンをレンダリングします。
ノード間で植物シミュレーションを分散し、シーンを生成し、GPU上でニューラルネットワークをトレーニングすることで、ノード間の通信を並列学習に制限することで、個々のノードのパフォーマンスに依存します。
関連論文リスト
- Image Captions are Natural Prompts for Text-to-Image Models [70.30915140413383]
本研究では,合成データの学習効果とプロンプトによる合成データ分布の関係を解析した。
本稿では,テキストから画像への生成モデルにより,より情報的で多様な学習データを合成する簡易かつ効果的な手法を提案する。
本手法は,合成学習データに基づいて訓練したモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-07-17T14:38:11Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - Procedural Image Programs for Representation Learning [62.557911005179946]
我々は,2万プログラムからなる大規模なデータセットを用いて,多様な合成画像を生成する訓練を提案する。
これらのプログラムは短いコードスニペットであり、変更が容易で、高速に実行することができる。
提案したデータセットは、教師付きおよび教師なしの表現学習の両方に使用することができ、実際の画像と手続き的に生成された画像との事前学習のギャップを38%削減する。
論文 参考訳(メタデータ) (2022-11-29T17:34:22Z) - Improving generalization with synthetic training data for deep learning
based quality inspection [0.0]
教師付きディープラーニングは、トレーニングのために大量の注釈付きイメージを必要とする。
実際には、そのようなデータの収集と注釈付けは費用がかかり、手間がかかる。
ランダムに生成した合成訓練画像を用いることで、領域不安定性に対処できることを示す。
論文 参考訳(メタデータ) (2022-02-25T16:51:01Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - PennSyn2Real: Training Object Recognition Models without Human Labeling [12.923677573437699]
我々はPennSyn2Realを提案する。20種類以上のマイクロエアロビー(MAV)の10万以上の4K画像からなる合成データセットである。
このデータセットは、MAV検出や分類などのハイレベルコンピュータビジョンタスクのための任意の数のトレーニングイメージを生成するために使用することができる。
このフレームワークを用いて生成された合成データは,検出やセグメンテーションといった一般的なオブジェクト認識タスクに対して,CNNモデルをトレーニングするために直接利用できることを示す。
論文 参考訳(メタデータ) (2020-09-22T02:53:40Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Stillleben: Realistic Scene Synthesis for Deep Learning in Robotics [33.30312206728974]
本稿では,シーン認識タスクの学習データを生成するための合成パイプラインについて述べる。
本手法は,物理シミュレーションを用いて,物体メッシュを物理的に現実的で密集したシーンに配置する。
私たちのパイプラインは、ディープニューラルネットワークのトレーニング中にオンラインで実行できます。
論文 参考訳(メタデータ) (2020-05-12T10:11:00Z) - Neural Networks Are More Productive Teachers Than Human Raters: Active
Mixup for Data-Efficient Knowledge Distillation from a Blackbox Model [57.41841346459995]
我々は,ブラックボックス教師モデルから知識を抽出し,学生の深層ニューラルネットワークを視覚認識のために訓練する方法を,データ効率のよい方法で研究する。
混合学習とアクティブラーニングを融合した手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T05:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。