論文の概要: DEBOSH: Deep Bayesian Shape Optimization
- arxiv url: http://arxiv.org/abs/2109.13337v1
- Date: Tue, 28 Sep 2021 11:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 21:15:32.400244
- Title: DEBOSH: Deep Bayesian Shape Optimization
- Title(参考訳): debosh: 深いベイズ形状の最適化
- Authors: Nikita Durasov, Artem Lukoyanov, Jonathan Donier, Pascal Fua
- Abstract要約: 本稿では,Ensemblesベースの手法が限界を克服し,最先端技術より優れていることを示す。
多様な空気力学および構造解析タスクに関する実験により,形状最適化に不確実性を加えることにより,形状の質が著しく向上することが証明された。
- 参考スコア(独自算出の注目度): 60.400102501013784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Shape optimization is at the heart of many industrial applications, such as
aerodynamics, heat transfer, and structural analysis. It has recently been
shown that Graph Neural Networks (GNNs) can predict the performance of a shape
quickly and accurately and be used to optimize more effectively than
traditional techniques that rely on response-surfaces obtained by Kriging.
However, GNNs suffer from the fact that they do not evaluate their own
accuracy, which is something Bayesian Optimization methods require. Therefore,
estimating confidence in generated predictions is necessary to go beyond
straight deterministic optimization, which is less effective.
In this paper, we demonstrate that we can use Ensembles-based technique to
overcome this limitation and outperform the state-of-the-art. Our experiments
on diverse aerodynamics and structural analysis tasks prove that adding
uncertainty to shape optimization significantly improves the quality of
resulting shapes and reduces the time required for the optimization.
- Abstract(参考訳): 形状最適化は、空気力学、熱伝達、構造解析などの多くの産業応用の中心である。
近年,グラフニューラルネットワーク(gnns)は,krigingによって得られた応答面に依存する従来の手法よりも,形の性能を迅速かつ正確に予測し,より効果的に最適化できることが示されている。
しかし、GNNは、ベイジアン最適化法が必要とする精度を評価できないという事実に悩まされている。
したがって、生成した予測に対する信頼度の推定は、直接決定論的最適化を超えて行う必要がある。
本稿では,この限界を克服し,最先端技術を上回るアンサンブルベース手法を活用できることを実証する。
多様な空気力学および構造解析タスクの実験により, 形状最適化に不確実性を加えることにより, 形状の質が著しく向上し, 最適化に要する時間を短縮できることが証明された。
関連論文リスト
- Understanding Optimization in Deep Learning with Central Flows [53.66160508990508]
RMSの暗黙的な振る舞いは、微分方程式の「中央流:」によって明示的に捉えられることを示す。
これらのフローは、汎用ニューラルネットワークの長期最適化軌道を経験的に予測できることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:13Z) - Simmering: Sufficient is better than optimal for training neural networks [0.0]
これは、ニューラルネットワークをトレーニングして、十分十分な重みとバイアスを生成する物理ベースの方法です。
我々は、SimmeringがAdamが過剰に適合するニューラルネットワークを修正していることを示し、Simmeringが最初からデプロイされた場合、過適合を避けることを示す。
本稿では,ニューラルネットワーク学習のパラダイムとして最適化を問うとともに,情報幾何学的議論を活用し,十分な学習アルゴリズムのクラスの存在を示唆する。
論文 参考訳(メタデータ) (2024-10-25T18:02:08Z) - Jacobian-Enhanced Neural Networks [0.0]
ヤコビアン強化ニューラルネットワーク(JENN)は密結合多層パーセプトロンである。
JENNの主な利点は、標準のニューラルネットワークに比べてトレーニングポイントが少なくて精度が良いことである。
論文 参考訳(メタデータ) (2024-06-13T14:04:34Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - EXACT: How to Train Your Accuracy [6.144680854063938]
本稿では,モデル出力にアセンシティを導入し,予測精度を最適化することで,新しい最適化フレームワークを提案する。
線形モデルと深層画像分類の実験により,提案手法は広く用いられている分類損失の強力な代替手段であることが示された。
論文 参考訳(メタデータ) (2022-05-19T15:13:00Z) - Bayesian Optimization Meets Laplace Approximation for Robotic
Introspection [41.117361086267806]
本稿では,Deep Neural Networks(DNN)をよりイントロスペクティブにするために,スケーラブルなLaplace Approximation (LA)技術を導入する。
特に,本論文では,真の重み付け後部を過小評価する傾向を緩和する新しいベイズ最適化(BO)アルゴリズムを提案する。
提案するフレームワークは,大規模データセットやアーキテクチャにまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T09:28:10Z) - Enhanced data efficiency using deep neural networks and Gaussian
processes for aerodynamic design optimization [0.0]
随伴型最適化法は空気力学的形状設計において魅力的である。
複数の最適化問題が解決されている場合、それらは違法に高価になる可能性がある。
本稿では,高コストな随伴解法に取って代わる機械学習を実現するサロゲートベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-15T15:09:21Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。