論文の概要: BIM Hyperreality: Data Synthesis Using BIM and Hyperrealistic Rendering
for Deep Learning
- arxiv url: http://arxiv.org/abs/2105.04103v1
- Date: Mon, 10 May 2021 04:08:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:45:04.343554
- Title: BIM Hyperreality: Data Synthesis Using BIM and Hyperrealistic Rendering
for Deep Learning
- Title(参考訳): BIMハイパーリアリティ:深層学習のためのBIMと超現実的レンダリングを用いたデータ合成
- Authors: Mohammad Alawadhi and Wei Yan
- Abstract要約: 写真に物体認識を構築するニューラルネットワークを訓練するためのハイブリッドシステムの概念を提示する。
本論文で提示した具体的ケーススタディでは,合成データで学習したニューラルネットワークを用いて,トレーニングデータに写真を用いることなく,写真から物体を識別できることが示されている。
- 参考スコア(独自算出の注目度): 3.4461633417989184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning is expected to offer new opportunities and a new paradigm for
the field of architecture. One such opportunity is teaching neural networks to
visually understand architectural elements from the built environment. However,
the availability of large training datasets is one of the biggest limitations
of neural networks. Also, the vast majority of training data for visual
recognition tasks is annotated by humans. In order to resolve this bottleneck,
we present a concept of a hybrid system using both building information
modeling (BIM) and hyperrealistic (photorealistic) rendering to synthesize
datasets for training a neural network for building object recognition in
photos. For generating our training dataset BIMrAI, we used an existing BIM
model and a corresponding photo-realistically rendered model of the same
building. We created methods for using renderings to train a deep learning
model, trained a generative adversarial network (GAN) model using these
methods, and tested the output model on real-world photos. For the specific
case study presented in this paper, our results show that a neural network
trained with synthetic data; i.e., photorealistic renderings and BIM-based
semantic labels, can be used to identify building objects from photos without
using photos in the training data. Future work can enhance the presented
methods using available BIM models and renderings for more generalized mapping
and description of photographed built environments.
- Abstract(参考訳): ディープラーニングは新しい機会とアーキテクチャ分野の新しいパラダイムを提供すると期待されている。
そのような機会の1つは、構築された環境からアーキテクチャ要素を視覚的に理解するようにニューラルネットワークに教えることです。
しかしながら、大規模なトレーニングデータセットの可用性は、ニューラルネットワークの最大の制限のひとつだ。
また、視覚認識タスクのトレーニングデータの大部分は、人間によってアノテートされている。
このボトルネックを解決するために、構築情報モデリング(BIM)と超現実的(フォトリアリスティック)レンダリングの両方を用いて、画像内の物体認識を構築するためにニューラルネットワークをトレーニングするためのデータセットを合成するハイブリッドシステムの概念を提案する。
トレーニングデータセットBIMrAIを生成するために、既存のBIMモデルと、同じ建物のフォトリアリスティックなレンダリングモデルを使用した。
そこで我々は,レンダリングを用いてディープラーニングモデルを訓練し,これらの手法を用いてGANモデルを訓練し,実世界の写真で出力モデルを検証した。
本稿では,合成データを用いてトレーニングしたニューラルネットワーク,すなわちフォトリアリスティックレンダリングとBIMに基づくセマンティックラベルを用いて,写真から構築したオブジェクトをトレーニングデータに使用せずに識別できることを示す。
今後の作業は、利用可能なBIMモデルとレンダリングを使用して、写真構築環境のより一般化されたマッピングと記述を可能にする。
関連論文リスト
- Image Captions are Natural Prompts for Text-to-Image Models [70.30915140413383]
本研究では,合成データの学習効果とプロンプトによる合成データ分布の関係を解析した。
本稿では,テキストから画像への生成モデルにより,より情報的で多様な学習データを合成する簡易かつ効果的な手法を提案する。
本手法は,合成学習データに基づいて訓練したモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-07-17T14:38:11Z) - CIFAKE: Image Classification and Explainable Identification of
AI-Generated Synthetic Images [7.868449549351487]
本稿では,コンピュータビジョンによるAI生成画像の認識能力を高めることを提案する。
写真が本物かAIによって生成されるかに関して、バイナリ分類問題として存在する2つのデータセット。
本研究では,畳み込みニューラルネットワーク(CNN)を用いて画像をリアルとフェイクの2つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-03-24T16:33:06Z) - Synthetic Image Data for Deep Learning [0.294944680995069]
3次元モデルからレンダリングされたリアルな合成画像データを使用して、画像集合を拡大し、画像分類セグメンテーションモデルを訓練することができる。
実車の生産3次元CADモデルに基づく大規模合成データセットを,高品質な物理ベースレンダリングとドメインランダム化により効率的に作成できることを示す。
論文 参考訳(メタデータ) (2022-12-12T20:28:13Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Ground material classification and for UAV-based photogrammetric 3D data
A 2D-3D Hybrid Approach [1.3359609092684614]
近年,物理環境を表す3次元仮想データを作成するために,多くの領域でフォトグラム法が広く用いられている。
これらの最先端技術は、迅速な3D戦場再建、仮想訓練、シミュレーションを目的として、アメリカ陸軍と海軍の注意を引き付けている。
論文 参考訳(メタデータ) (2021-09-24T22:29:26Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Towards Learning a Vocabulary of Visual Concepts and Operators using
Deep Neural Networks [0.0]
我々は、MNIST画像を用いて訓練されたモデルの学習された特徴マップを分析し、より説明可能な予測を行う。
MNIST画像を用いて学習した変分オートエンコーダから視覚概念を生成する。
再建損失(平均2乗誤差)を初期値120から60に減らすことができた。
論文 参考訳(メタデータ) (2021-09-01T16:34:57Z) - PennSyn2Real: Training Object Recognition Models without Human Labeling [12.923677573437699]
我々はPennSyn2Realを提案する。20種類以上のマイクロエアロビー(MAV)の10万以上の4K画像からなる合成データセットである。
このデータセットは、MAV検出や分類などのハイレベルコンピュータビジョンタスクのための任意の数のトレーニングイメージを生成するために使用することができる。
このフレームワークを用いて生成された合成データは,検出やセグメンテーションといった一般的なオブジェクト認識タスクに対して,CNNモデルをトレーニングするために直接利用できることを示す。
論文 参考訳(メタデータ) (2020-09-22T02:53:40Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。