論文の概要: Gradient-free neural topology optimization
- arxiv url: http://arxiv.org/abs/2403.04937v1
- Date: Thu, 7 Mar 2024 23:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 21:37:22.141805
- Title: Gradient-free neural topology optimization
- Title(参考訳): 勾配のない神経トポロジー最適化
- Authors: Gawel Kus, Miguel A. Bessa
- Abstract要約: 勾配のないアルゴリズムは勾配に基づくアルゴリズムと比較して多くの繰り返しを収束させる必要がある。
これにより、反復1回あたりの計算コストとこれらの問題の高次元性のため、トポロジ最適化では実現不可能となった。
我々は,潜時空間における設計を最適化する場合に,少なくとも1桁の繰り返し回数の減少につながる事前学習型ニューラルリパラメータ化戦略を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gradient-free optimizers allow for tackling problems regardless of the
smoothness or differentiability of their objective function, but they require
many more iterations to converge when compared to gradient-based algorithms.
This has made them unviable for topology optimization due to the high
computational cost per iteration and high dimensionality of these problems. We
propose a pre-trained neural reparameterization strategy that leads to at least
one order of magnitude decrease in iteration count when optimizing the designs
in latent space, as opposed to the conventional approach without latent
reparameterization. We demonstrate this via extensive computational experiments
in- and out-of-distribution with the training data. Although gradient-based
topology optimization is still more efficient for differentiable problems, such
as compliance optimization of structures, we believe this work will open up a
new path for problems where gradient information is not readily available (e.g.
fracture).
- Abstract(参考訳): 勾配フリーオプティマイザは、目的関数の滑らかさや微分可能性に関係なく問題に取り組むことができるが、勾配ベースのアルゴリズムと比較して収束するのに多くのイテレーションを必要とする。
これにより、反復毎に高い計算コストとこれらの問題の高次元のため、トポロジー最適化は不可能になっている。
そこで本研究では, 潜在空間で設計を最適化する際の反復数を少なくとも1桁減少させる事前学習した神経再パラメータ化戦略を提案する。
トレーニングデータを用いた大規模計算実験によりこれを実証する。
勾配に基づく位相最適化は、構造物のコンプライアンス最適化のような微分可能な問題に対して依然として効率的であるが、勾配情報が容易に利用できない問題(例えば、破壊)に対する新たな経路を開くと我々は信じている。
関連論文リスト
- Optimizing CT Scan Geometries With and Without Gradients [7.788823739816626]
勾配に基づく最適化アルゴリズムが、勾配のないアルゴリズムの代替となる可能性が示されている。
勾配に基づくアルゴリズムは、捕捉範囲と自由パラメータの数に対するロバスト性の観点から、勾配のないアルゴリズムに匹敵する一方で、かなり高速に収束する。
論文 参考訳(メタデータ) (2023-02-13T10:44:41Z) - Efficient Gradient Approximation Method for Constrained Bilevel
Optimization [2.0305676256390934]
大規模高次元データを用いたバイレベル最適化が開発されている。
本稿では凸と微分不可能な近似を伴う制約付き二値問題について考察する。
論文 参考訳(メタデータ) (2023-02-03T19:34:56Z) - A Particle-based Sparse Gaussian Process Optimizer [5.672919245950197]
本稿では,下降の動的過程を利用した新しいスワム・スワムベースのフレームワークを提案する。
このアプローチの最大の利点は、降下を決定する前に現在の状態についてより深い探索を行うことである。
論文 参考訳(メタデータ) (2022-11-26T09:06:15Z) - Smooth over-parameterized solvers for non-smooth structured optimization [3.756550107432323]
非滑らか性 (non-smoothness) は、空間性、群空間性、低ランクエッジ、鋭いエッジなどの解の構造的制約を符号化する。
我々は、基礎となる非滑らかな最適化問題の非重み付きだが滑らかな過度パラメータ化を運用する。
我々の主な貢献は変数の一部を明示的に最小化することで新しい定式化を定義する変数射影(VarPro)を適用することです。
論文 参考訳(メタデータ) (2022-05-03T09:23:07Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - An adaptive stochastic gradient-free approach for high-dimensional
blackbox optimization [0.0]
本研究では,高次元非平滑化問題に対する適応勾配フリー (ASGF) アプローチを提案する。
本稿では,グローバルな問題と学習タスクのベンチマークにおいて,本手法の性能について述べる。
論文 参考訳(メタデータ) (2020-06-18T22:47:58Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning [95.85269649177336]
ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
論文 参考訳(メタデータ) (2020-06-11T06:50:35Z) - Proximal Gradient Algorithm with Momentum and Flexible Parameter Restart
for Nonconvex Optimization [73.38702974136102]
アルゴリズムの高速化のために,パラメータ再起動方式が提案されている。
本論文では,非滑らかな問題を解くアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:06:27Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。