論文の概要: DEBOSH: Deep Bayesian Shape Optimization
- arxiv url: http://arxiv.org/abs/2109.13337v2
- Date: Mon, 2 Oct 2023 17:04:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 11:20:06.247123
- Title: DEBOSH: Deep Bayesian Shape Optimization
- Title(参考訳): debosh: 深いベイズ形状の最適化
- Authors: Nikita Durasov, Artem Lukoyanov, Jonathan Donier, Pascal Fua
- Abstract要約: 形状最適化に適した不確実性に基づく新しい手法を提案する。
効果的なBOを可能にし、その結果の形状の質を最先端のアプローチを超えて向上させる。
- 参考スコア(独自算出の注目度): 48.80431740983095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) can predict the performance of an industrial
design quickly and accurately and be used to optimize its shape effectively.
However, to fully explore the shape space, one must often consider shapes
deviating significantly from the training set. For these, GNN predictions
become unreliable, something that is often ignored. For optimization techniques
relying on Gaussian Processes, Bayesian Optimization (BO) addresses this issue
by exploiting their ability to assess their own accuracy. Unfortunately, this
is harder to do when using neural networks because standard approaches to
estimating their uncertainty can entail high computational loads and reduced
model accuracy. Hence, we propose a novel uncertainty-based method tailored to
shape optimization. It enables effective BO and increases the quality of the
resulting shapes beyond that of state-of-the-art approaches.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,産業設計の性能を迅速かつ正確に予測し,その形状を効果的に最適化する。
しかし、形状空間を完全に探索するには、しばしばトレーニングセットから大きく逸脱する形状を考える必要がある。
これらの理由から、GNNの予測は信頼できないものになり、しばしば無視される。
ガウス過程に依存する最適化技術のために、ベイズ最適化(BO)は、自身の精度を評価する能力を利用してこの問題に対処する。
残念なことに、ニューラルネットワークを使用する場合、不確実性を推定するための標準的なアプローチは高い計算負荷を伴い、モデルの精度を低下させるため、これは難しい。
そこで本研究では,形状最適化に適した新しい不確実性に基づく手法を提案する。
効果的なBOを可能にし、その結果の形状の質を最先端のアプローチを超えて向上させる。
関連論文リスト
- Understanding Optimization in Deep Learning with Central Flows [53.66160508990508]
RMSの暗黙的な振る舞いは、微分方程式の「中央流:」によって明示的に捉えられることを示す。
これらのフローは、汎用ニューラルネットワークの長期最適化軌道を経験的に予測できることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:13Z) - Simmering: Sufficient is better than optimal for training neural networks [0.0]
これは、ニューラルネットワークをトレーニングして、十分十分な重みとバイアスを生成する物理ベースの方法です。
我々は、SimmeringがAdamが過剰に適合するニューラルネットワークを修正していることを示し、Simmeringが最初からデプロイされた場合、過適合を避けることを示す。
本稿では,ニューラルネットワーク学習のパラダイムとして最適化を問うとともに,情報幾何学的議論を活用し,十分な学習アルゴリズムのクラスの存在を示唆する。
論文 参考訳(メタデータ) (2024-10-25T18:02:08Z) - Jacobian-Enhanced Neural Networks [0.0]
ヤコビアン強化ニューラルネットワーク(JENN)は密結合多層パーセプトロンである。
JENNの主な利点は、標準のニューラルネットワークに比べてトレーニングポイントが少なくて精度が良いことである。
論文 参考訳(メタデータ) (2024-06-13T14:04:34Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - EXACT: How to Train Your Accuracy [6.144680854063938]
本稿では,モデル出力にアセンシティを導入し,予測精度を最適化することで,新しい最適化フレームワークを提案する。
線形モデルと深層画像分類の実験により,提案手法は広く用いられている分類損失の強力な代替手段であることが示された。
論文 参考訳(メタデータ) (2022-05-19T15:13:00Z) - Bayesian Optimization Meets Laplace Approximation for Robotic
Introspection [41.117361086267806]
本稿では,Deep Neural Networks(DNN)をよりイントロスペクティブにするために,スケーラブルなLaplace Approximation (LA)技術を導入する。
特に,本論文では,真の重み付け後部を過小評価する傾向を緩和する新しいベイズ最適化(BO)アルゴリズムを提案する。
提案するフレームワークは,大規模データセットやアーキテクチャにまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T09:28:10Z) - Enhanced data efficiency using deep neural networks and Gaussian
processes for aerodynamic design optimization [0.0]
随伴型最適化法は空気力学的形状設計において魅力的である。
複数の最適化問題が解決されている場合、それらは違法に高価になる可能性がある。
本稿では,高コストな随伴解法に取って代わる機械学習を実現するサロゲートベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-15T15:09:21Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。