論文の概要: Active Learning over DNN: Automated Engineering Design Optimization for
Fluid Dynamics Based on Self-Simulated Dataset
- arxiv url: http://arxiv.org/abs/2001.08075v2
- Date: Thu, 23 Jan 2020 03:16:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 05:13:53.402510
- Title: Active Learning over DNN: Automated Engineering Design Optimization for
Fluid Dynamics Based on Self-Simulated Dataset
- Title(参考訳): dnnによるアクティブラーニング:自己シミュレーションデータセットに基づく流体力学の自動設計最適化
- Authors: Yang Chen
- Abstract要約: 本研究は,様々な制約下での性能を予測するために,テストによるディープラーニングアーキテクチャを適用した。
最大の課題は、Deep Neural Network(DNN)の要求する膨大なデータポイントである。
最終段階であるユーザインタフェースは、最小領域と粘度を与えられたユーザ入力で最適化できるモデルを作った。
- 参考スコア(独自算出の注目度): 4.4074213830420055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimizing fluid-dynamic performance is an important engineering task.
Traditionally, experts design shapes based on empirical estimations and verify
them through expensive experiments. This costly process, both in terms of time
and space, may only explore a limited number of shapes and lead to sub-optimal
designs. In this research, a test-proven deep learning architecture is applied
to predict the performance under various restrictions and search for better
shapes by optimizing the learned prediction function. The major challenge is
the vast amount of data points Deep Neural Network (DNN) demands, which is
improvident to simulate. To remedy this drawback, a Frequentist active learning
is used to explore regions of the output space that DNN predicts promising.
This operation reduces the number of data samples demanded from ~8000 to 625.
The final stage, a user interface, made the model capable of optimizing with
given user input of minimum area and viscosity. Flood fill is used to define a
boundary area function so that the optimal shape does not bypass the minimum
area. Stochastic Gradient Langevin Dynamics (SGLD) is employed to make sure the
ultimate shape is optimized while circumventing the required area. Jointly,
shapes with extremely low drags are found explored by a practical user
interface with no human domain knowledge and modest computation overhead.
- Abstract(参考訳): 流体力学性能の最適化は重要なエンジニアリング課題である。
伝統的に、専門家は経験的推定に基づいて形状を設計し、高価な実験を通じて検証する。
このコストのかかるプロセスは、時間と空間の両方において、限られた数の形状のみを探索し、準最適設計につながる可能性がある。
本研究では,様々な制約下での性能を予測し,学習した予測関数を最適化し,より優れた形状を求めるために,テスト可能なディープラーニングアーキテクチャを適用した。
最大の課題は、Deep Neural Network(DNN)の要求する膨大なデータポイントである。
この欠点を補うために、Frequentistのアクティブラーニングは、DNNが期待する出力空間の領域を探索するために使用される。
この操作は、8000から625まで要求されるデータサンプルの数を減らす。
最終段階であるユーザインタフェースにより、最小限の領域と粘度の入力でモデルを最適化できるようになった。
洪水充填は、最適形状が最小領域をバイパスしないように境界領域関数を定義するために用いられる。
SGLD(Stochastic Gradient Langevin Dynamics)は、必要な領域を回避しつつ、最終的な形状が最適化されることを確認するために用いられる。
共同で、非常に低いドラッグの形状は、人間のドメイン知識や少ない計算オーバーヘッドのない実用的なユーザインターフェースによって探求される。
関連論文リスト
- Event-based Shape from Polarization with Spiking Neural Networks [5.200503222390179]
表面正規化を効果的かつ効率的に行うために,シングルタイムステップとマルチタイムステップ・スパイキング・ユニセットを導入する。
本研究は,イベントベースセンシングにおけるSNNの進歩に寄与する。
論文 参考訳(メタデータ) (2023-12-26T14:43:26Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - INFINITY: Neural Field Modeling for Reynolds-Averaged Navier-Stokes
Equations [13.242926257057084]
INFINITYは、幾何学情報と物理場をコンパクトな表現に符号化するディープラーニングモデルである。
本フレームワークは,体積と表面の物理場を正確に推定することにより,最先端の性能を実現する。
我々のモデルは、方程式に固執しながら、ドラッグ・アンド・リフト係数を正確に予測することができる。
論文 参考訳(メタデータ) (2023-07-25T14:35:55Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - HSurf-Net: Normal Estimation for 3D Point Clouds by Learning Hyper
Surfaces [54.77683371400133]
本稿では,ノイズと密度の変動のある点群から正規性を正確に予測できるHSurf-Netという新しい正規推定手法を提案する。
実験結果から, HSurf-Netは, 合成形状データセット上での最先端性能を実現することがわかった。
論文 参考訳(メタデータ) (2022-10-13T16:39:53Z) - Using Gradient to Boost the Generalization Performance of Deep Learning
Models for Fluid Dynamics [0.0]
本稿では,Deep Learningの一般化能力を高めるための新しい研究について述べる。
我々の戦略は、DLネットワークのより良い一般化に向けた良い結果を示している。
論文 参考訳(メタデータ) (2022-10-09T10:20:09Z) - Data-informed Deep Optimization [3.331457049134526]
本稿では,データインフォームド・ディープ・最適化(DiDo)による高次元設計問題の解法を提案する。
我々は、ディープニューラルネットワーク(DNN)を用いて、実現可能な領域を学習し、目的関数に適合する実行可能なポイントをサンプリングする。
以上の結果から,DNN による DiDo のアプローチは柔軟で,現実的な高次元設計問題の解決に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-07-17T02:53:54Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。