論文の概要: Neural Networks for Generating Better Local Optima in Topology Optimization
- arxiv url: http://arxiv.org/abs/2407.17957v1
- Date: Thu, 25 Jul 2024 11:24:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 14:18:40.978036
- Title: Neural Networks for Generating Better Local Optima in Topology Optimization
- Title(参考訳): トポロジ最適化における局所最適性向上のためのニューラルネットワーク
- Authors: Leon Herrmann, Ole Sigmund, Viola Muning Li, Christian Vogl, Stefan Kollmannsberger,
- Abstract要約: ニューラルネットワーク素材の離散化が、特定の条件下で、より困難な最適化問題において、より優れた局所最適性を見出すことができることを示す。
ニューラルネットワークの材料識別のアドバンテージは、現在の制限との相互作用にある、と強調する。
- 参考スコア(独自算出の注目度): 0.4543820534430522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have recently been employed as material discretizations within adjoint optimization frameworks for inverse problems and topology optimization. While advantageous regularization effects and better optima have been found for some inverse problems, the benefit for topology optimization has been limited -- where the focus of investigations has been the compliance problem. We demonstrate how neural network material discretizations can, under certain conditions, find better local optima in more challenging optimization problems, where we here specifically consider acoustic topology optimization. The chances of identifying a better optimum can significantly be improved by running multiple partial optimizations with different neural network initializations. Furthermore, we show that the neural network material discretization's advantage comes from the interplay with the Adam optimizer and emphasize its current limitations when competing with constrained and higher-order optimization techniques. At the moment, this discretization has only been shown to be beneficial for unconstrained first-order optimization.
- Abstract(参考訳): ニューラルネットワークは、最近、逆問題やトポロジ最適化のための随伴最適化フレームワークにおいて、物質的離散化として採用されている。
いくつかの逆問題に対して、有利な正規化効果とより良い最適化が発見されているが、トポロジ最適化の利点は限られており、調査の焦点がコンプライアンスの問題となっている。
ニューラルネットワークの材料離散化が、特定の条件下で、より困難な最適化問題において、より局所的な最適性を見出すことを実証し、音響トポロジ最適化を特に検討する。
ニューラルネットワークの初期化の異なる複数の部分最適化を実行することで、より良い最適化を識別する可能性が大幅に向上する。
さらに、ニューラルネットワーク素材の離散化の利点は、Adamオプティマイザとの相互作用によるものであり、制約のある高階最適化技術と競合する際の現在の制限を強調していることを示す。
現時点では、この離散化は制約のない一階最適化にのみ有用であることが示されている。
関連論文リスト
- Neural topology optimization: the good, the bad, and the ugly [44.99833362998488]
ニューラルネットワーク(NN)は、トポロジ最適化(TO)を通じて逆を推し進めるための大きな約束を持っている
しかし、アプリケーションに関する誤解は続いている。
本稿では、トポロジ最適化(神経風景)に焦点を当てる。
私たちの分析ツールは、まだ初期段階ですが、NNアーキテクチャに関する重要な洞察を明らかにします。
論文 参考訳(メタデータ) (2024-07-19T00:10:56Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - Lower Bounds and Optimal Algorithms for Non-Smooth Convex Decentralized Optimization over Time-Varying Networks [57.24087627267086]
通信ネットワークのノード間で分散的に格納された凸関数の総和を最小化するタスクについて検討する。
この問題を解決するのに必要な分散通信数と(サブ)漸進計算の下位境界が確立されている。
我々は,これらの下界に適合する最初の最適アルゴリズムを開発し,既存の最先端技術と比較して理論性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-28T10:28:45Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Federated Multi-Level Optimization over Decentralized Networks [55.776919718214224]
エージェントが隣人としか通信できないネットワーク上での分散マルチレベル最適化の問題について検討する。
ネットワーク化されたエージェントが1つの時間スケールで異なるレベルの最適化問題を解くことができる新しいゴシップに基づく分散マルチレベル最適化アルゴリズムを提案する。
提案アルゴリズムは, ネットワークサイズと線形にスケーリングし, 各種アプリケーション上での最先端性能を示す。
論文 参考訳(メタデータ) (2023-10-10T00:21:10Z) - Topology Optimization using Neural Networks with Conditioning Field
Initialization for Improved Efficiency [2.575019247624295]
我々は、未最適化領域の事前初期フィールドを使用することで、ニューラルネットワークに基づくトポロジ最適化の効率をさらに向上できることを示す。
我々は、最適化を通じてニューラルネットワークに入力される追加条件付けフィールドとして、初期設計領域で計算されたひずみエネルギー場を用いる。
論文 参考訳(メタデータ) (2023-05-17T07:42:24Z) - Optimization Networks for Integrated Machine Learning [4.279210021862033]
最適化ネットワークの中核となる原理を再考し、機械学習の問題を解決するための適合性を実証する。
我々は、他の機械学習問題を解決するためにネットワークを適応させることにより、最適化ネットワークの利点を正当化する。
論文 参考訳(メタデータ) (2021-09-01T08:25:01Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z) - Iterative Surrogate Model Optimization (ISMO): An active learning
algorithm for PDE constrained optimization with deep neural networks [14.380314061763508]
反復代理モデル最適化(ISMO)と呼ばれる新しい能動学習アルゴリズムを提案する。
このアルゴリズムはディープニューラルネットワークに基づいており、その重要な特徴は、ディープニューラルネットワークと基礎となる標準最適化アルゴリズムの間のフィードバックループを通じて、トレーニングデータの反復的な選択である。
論文 参考訳(メタデータ) (2020-08-13T07:31:07Z) - The Hidden Convex Optimization Landscape of Two-Layer ReLU Neural
Networks: an Exact Characterization of the Optimal Solutions [51.60996023961886]
コーン制約のある凸最適化プログラムを解くことにより,グローバルな2層ReLUニューラルネットワークの探索が可能であることを示す。
我々の分析は新しく、全ての最適解を特徴づけ、最近、ニューラルネットワークのトレーニングを凸空間に持ち上げるために使われた双対性に基づく分析を活用できない。
論文 参考訳(メタデータ) (2020-06-10T15:38:30Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。