論文の概要: Improving Deep Learning Predictions with Simulated Images, and Vice Versa
- arxiv url: http://arxiv.org/abs/2404.05128v1
- Date: Mon, 8 Apr 2024 01:08:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 15:43:25.396556
- Title: Improving Deep Learning Predictions with Simulated Images, and Vice Versa
- Title(参考訳): シミュレーション画像とVice Versaによるディープラーニング予測の改善
- Authors: Nazifa Azam Khan, Mikolaj Cieslak, Ian McQuillan,
- Abstract要約: 視覚的に現実的なシミュレーションを生成するために、植物の手続きモデルを作成することができる。
これらの合成画像は、表現型タスクのためのトレーニングニューラルネットワークにおいて、実際の画像を増強または完全に置き換えることができる。
本研究は,合成画像におけるリアリズムが予測を改善する程度について検討する。
- 参考スコア(独自算出の注目度): 1.7532822703595772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial neural networks are often used to identify features of crop plants. However, training their models requires many annotated images, which can be expensive and time-consuming to acquire. Procedural models of plants, such as those developed with Lindenmayer-systems (L-systems) can be created to produce visually realistic simulations, and hence images of plant simulations, where annotations are implicitly known. These synthetic images can either augment or completely replace real images in training neural networks for phenotyping tasks. In this paper, we systematically vary amounts of real and synthetic images used for training in both maize and canola to better understand situations where synthetic images generated from L-systems can help prediction on real images. This work also explores the degree to which realism in the synthetic images improves prediction. Furthermore, we see how neural network predictions can be used to help calibrate L-systems themselves, creating a feedback loop.
- Abstract(参考訳): 人工ニューラルネットワークは、しばしば作物の特徴を特定するために使用される。
しかし、それらのモデルのトレーニングには多くの注釈付きイメージが必要です。
リンデンマイヤー系 (L-systems) で開発された植物などの手続き的モデルは、視覚的に現実的なシミュレーションを生成するために作成され、したがって、アノテーションが暗黙的に知られている植物シミュレーションの画像を生成することができる。
これらの合成画像は、表現型タスクのためのトレーニングニューラルネットワークにおいて、実際の画像を増強または完全に置き換えることができる。
本稿では,L系から生成した合成画像が実画像の予測に役立てられる状況を理解するために,トウモロコシとカノーラの双方で訓練に使用される実画像と合成画像の量を体系的に変化させる。
この研究は、合成画像におけるリアリズムが予測を改善する程度についても検討する。
さらに、ニューラルネットワークの予測がLシステム自体を校正し、フィードバックループを作成するのにどのように役立つかを確認する。
関連論文リスト
- Generating Synthetic Satellite Imagery With Deep-Learning Text-to-Image Models -- Technical Challenges and Implications for Monitoring and Verification [46.42328086160106]
コンディショニング機構を用いて合成衛星画像の作成方法について検討する。
評価結果は,信頼性と最先端の指標に基づいて評価する。
本稿では,衛星画像の監視と検証の文脈における意義について論じる。
論文 参考訳(メタデータ) (2024-04-11T14:00:20Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Creating Realistic Anterior Segment Optical Coherence Tomography Images
using Generative Adversarial Networks [0.0]
Generative Adversarial Network (GAN) は、高解像度でリアルな前部セグメント光コヒーレンス・トモグラフィ(AS-OCT)画像の作成を目的としている。
我々は,142,628 AS- OCT Bスキャンを用いて,スタイルとウェーブレットをベースとしたGANを訓練した。
論文 参考訳(メタデータ) (2023-06-24T20:48:00Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - Shape Reconstruction from Thoracoscopic Images using Self-supervised
Virtual Learning [2.4493299476776778]
内視鏡画像からの臓器の術中形状再構成は,画像ガイド下手術には複雑だが必須である。
シミュレーション画像と実画像間の共通潜時変数を用いた画像変換を用いた形状再構成の仮想学習フレームワークを提案する。
本研究では,胸腔鏡画像から崩壊肺の形状復元を目標とし,仮想学習が実画像と模擬画像の類似性を改善することを確認した。
論文 参考訳(メタデータ) (2023-01-25T23:08:41Z) - Fast Training of Neural Lumigraph Representations using Meta Learning [109.92233234681319]
我々は、リアルタイムにレンダリングできる高品質な表現を素早く学習することを目的として、新しいニューラルレンダリングアプローチを開発した。
われわれのアプローチであるMetaNLR++は、ニューラル形状表現と2次元CNNに基づく画像特徴抽出、集約、再投影のユニークな組み合わせを用いてこれを実現する。
そこで本研究では,MetaNLR++が類似あるいはより優れたフォトリアリスティックなノベルビュー合成を実現し,競合する手法が要求される時間のほんの少しの時間で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-28T18:55:50Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z) - Amplifying The Uncanny [0.2062593640149624]
ディープニューラルネットワークは、リアルなディープフェイクを作るのに非常に適している。
Deepfakesは、実画像と偽画像の区別を学ぶアルゴリズムによって生成される。
本稿では,このプロセスの逆転による美的効果について検討し,その代わりに,偽物と予測される画像を生成するためにシステムを最適化する。
論文 参考訳(メタデータ) (2020-02-17T11:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。