論文の概要: Measurement of Hybrid Rocket Solid Fuel Regression Rate for a Slab
Burner using Deep Learning
- arxiv url: http://arxiv.org/abs/2108.11276v1
- Date: Wed, 25 Aug 2021 14:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 14:52:23.655513
- Title: Measurement of Hybrid Rocket Solid Fuel Regression Rate for a Slab
Burner using Deep Learning
- Title(参考訳): 深層学習によるスラブバーナのハイブリッドロケット固体燃料回帰速度の測定
- Authors: Gabriel Surina III, Georgios Georgalis, Siddhant S. Aphale, Abani
Patra, Paul E. DesJardin
- Abstract要約: 本研究では, ハイブリッドロケット燃料用2次元スラブバーナ実験において, 燃料回帰率を測定するための画像ベースディープラーニングツールを提案する。
高強度フラッシュのDSLRカメラを使用して、燃焼中の画像をキャプチャし、その画像を使用して燃料境界を見つけ、レグレッション率を算出する。
実験画像から燃料を分離するために,U-net畳み込みニューラルネットワークアーキテクチャを探索した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents an imaging-based deep learning tool to measure the fuel
regression rate in a 2D slab burner experiment for hybrid rocket fuels. The
slab burner experiment is designed to verify mechanistic models of reacting
boundary layer combustion in hybrid rockets by the measurement of fuel
regression rates. A DSLR camera with a high intensity flash is used to capture
images throughout the burn and the images are then used to find the fuel
boundary to calculate the regression rate. A U-net convolutional neural network
architecture is explored to segment the fuel from the experimental images. A
Monte-Carlo Dropout process is used to quantify the regression rate uncertainty
produced from the network. The U-net computed regression rates are compared
with values from other techniques from literature and show error less than 10%.
An oxidizer flux dependency study is performed and shows the U-net predictions
of regression rates are accurate and independent of the oxidizer flux, when the
images in the training set are not over-saturated. Training with monochrome
images is explored and is not successful at predicting the fuel regression rate
from images with high noise. The network is superior at filtering out noise
introduced by soot, pitting, and wax deposition on the chamber glass as well as
the flame when compared to traditional image processing techniques, such as
threshold binary conversion and spatial filtering. U-net consistently provides
low error image segmentations to allow accurate computation of the regression
rate of the fuel.
- Abstract(参考訳): 本研究では, ハイブリッドロケット燃料用2次元スラブバーナ実験において, 燃料回帰率を測定するための画像ベースディープラーニングツールを提案する。
スラブバーナー実験は、燃料回帰速度の測定によりハイブリッドロケットにおける境界層燃焼の機構モデルを検証するために設計された。
高輝度フラッシュ付きデジタル一眼レフカメラは、燃焼中の画像を撮影するために使用され、画像は燃料境界を見つけて回帰率を計算するために使用される。
実験画像から燃料を分離するために,U-net畳み込みニューラルネットワークアーキテクチャを検討した。
モンテカルロドロップアウトプロセスは、ネットワークから発生する回帰率の不確かさを定量化するために使用される。
U-net計算レグレッションレートは文献の他の手法の値と比較され、10%未満の誤差を示す。
酸化剤フラックス依存性の研究を行い、トレーニングセット内の画像が過飽和でない場合、回帰速度のU-net予測が酸化剤フラックスとは独立であることを示す。
モノクロ画像を用いた訓練は検討され,高騒音画像からの燃料回帰率の予測には成功していない。
このネットワークは、しきい値の2値変換や空間フィルタリングといった従来の画像処理技術と比較して、室内ガラスのすす、ピット、ワックス堆積によるノイズを除去するのに優れている。
u-netは、燃料の回帰率を正確に計算できるように、一貫して低エラー画像分割を提供する。
関連論文リスト
- Efficient Diffusion as Low Light Enhancer [63.789138528062225]
RATR(Reflectance-Aware Trajectory Refinement)は、イメージの反射成分を用いて教師の軌跡を洗練するための、シンプルで効果的なモジュールである。
textbfReDDiT (textbfDistilled textbfTrajectory) は低照度画像強調(LLIE)に適した効率的で柔軟な蒸留フレームワークである。
論文 参考訳(メタデータ) (2024-10-16T08:07:18Z) - ReDistill: Residual Encoded Distillation for Peak Memory Reduction [5.532610278442954]
教師・学生の枠組みにおけるピークメモリ削減のための残差符号化蒸留(ReDistill)を提案する。
画像分類では、ほとんどのCNNアーキテクチャにおいて、エッジGPU上で2x-3.2xのピークメモリを出力し、精度の劣化を無視できる。
拡散に基づく画像生成では, 提案手法により, 4倍低い理論ピークメモリを有するデノナイジングネットワークが得られる。
論文 参考訳(メタデータ) (2024-06-06T04:44:10Z) - Deep Equilibrium Diffusion Restoration with Parallel Sampling [120.15039525209106]
拡散モデルに基づく画像復元(IR)は、拡散モデルを用いて劣化した画像から高品質な(本社)画像を復元し、有望な性能を達成することを目的としている。
既存のほとんどの手法では、HQイメージをステップバイステップで復元するために長いシリアルサンプリングチェーンが必要であるため、高価なサンプリング時間と高い計算コストがかかる。
本研究では,拡散モデルに基づくIRモデルを異なる視点,すなわちDeqIRと呼ばれるDeQ(Deep equilibrium)固定点系で再考することを目的とする。
論文 参考訳(メタデータ) (2023-11-20T08:27:56Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Accelerating Multiframe Blind Deconvolution via Deep Learning [0.0]
地上からの太陽画像の復元は計算に費用がかかる手続きである。
本稿では,アルゴリズムのアンロールに基づく復元を高速化する手法を提案する。
両手法が標準最適化法と比較して復元時間を大幅に短縮することを示した。
論文 参考訳(メタデータ) (2023-06-21T07:53:00Z) - Unsupervised Wildfire Change Detection based on Contrastive Learning [1.53934570513443]
山火事の深刻度を正確に評価することは, 火災発生地域における燃料条件のキャラクタリゼーションに寄与する。
本研究の目的は、高解像度マルチスペクトル衛星画像上に構築された自律システムを開発することである。
論文 参考訳(メタデータ) (2022-11-26T20:13:14Z) - An Empirical Analysis of Recurrent Learning Algorithms In Neural Lossy
Image Compression Systems [73.48927855855219]
近年のディープラーニングの進歩により、JPEGとJPEG 2000を標準のKodakベンチマークで上回る画像圧縮アルゴリズムが実現している。
本稿では,最近の最先端ハイブリッドニューラル圧縮アルゴリズムの大規模比較を行う。
論文 参考訳(メタデータ) (2022-01-27T19:47:51Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Conditional Variational Autoencoder for Learned Image Reconstruction [5.487951901731039]
本研究では,未知画像の後部分布を問合せ観測で近似する新しいフレームワークを開発する。
暗黙のノイズモデルと先行処理を処理し、データ生成プロセス(フォワード演算子)を組み込み、学習された再構成特性は異なるデータセット間で転送可能である。
論文 参考訳(メタデータ) (2021-10-22T10:02:48Z) - Two-Stage Single Image Reflection Removal with Reflection-Aware Guidance [78.34235841168031]
シングルイメージリフレクション除去(SIRR)のためのリフレクション・アウェア・ガイダンス(RAGNet)を用いた新しい2段階ネットワークを提案する。
RAGは、(i)観測からの反射の効果を緩和するために、(ii)線形結合仮説から逸脱する効果を緩和するための部分畳み込みにおいてマスクを生成するために用いられる。
5つの一般的なデータセットの実験は、最先端のSIRR法と比較して、RAGNetの量的および質的な優位性を実証している。
論文 参考訳(メタデータ) (2020-12-02T03:14:57Z) - Enhancement of damaged-image prediction through Cahn-Hilliard Image
Inpainting [0.0]
我々は、MNISTのトレーニングセットを用いて、高密度層に基づくニューラルネットワークをトレーニングする。
次に、異なるタイプの損傷と強度でテストセットを汚染します。
ニューラルネットワークの予測精度を、損傷画像テストにケーン・ヒリアードフィルタを適用することなく比較する。
論文 参考訳(メタデータ) (2020-07-21T12:29:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。