論文の概要: Learning Gradient Flow: Using Equation Discovery to Accelerate Engineering Optimization
- arxiv url: http://arxiv.org/abs/2602.13513v2
- Date: Tue, 17 Feb 2026 20:17:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 13:51:30.958685
- Title: Learning Gradient Flow: Using Equation Discovery to Accelerate Engineering Optimization
- Title(参考訳): グラディエントフローの学習: 方程式発見によるエンジニアリング最適化の高速化
- Authors: Grant Norman, Conor Rowan, Kurt Maute, Alireza Doostan,
- Abstract要約: 我々は軌道データを用いて勾配降下、ニュートン法、ADAM最適化に関連する連続時間ダイナミクスを学習する。
発見された勾配は、元の最適化問題の代役として解かれる。
本稿では,工学的な力学と科学的な機械学習の標準的な問題に対して,このアプローチの有効性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we investigate the use of data-driven equation discovery for dynamical systems to model and forecast continuous-time dynamics of unconstrained optimization problems. To avoid expensive evaluations of the objective function and its gradient, we leverage trajectory data on the optimization variables to learn the continuous-time dynamics associated with gradient descent, Newton's method, and ADAM optimization. The discovered gradient flows are then solved as a surrogate for the original optimization problem. To this end, we introduce the Learned Gradient Flow (LGF) optimizer, which is equipped to build surrogate models of variable polynomial order in full- or reduced-dimensional spaces at user-defined intervals in the optimization process. We demonstrate the efficacy of this approach on several standard problems from engineering mechanics and scientific machine learning, including two inverse problems, structural topology optimization, and two forward solves with different discretizations. Our results suggest that the learned gradient flows can significantly expedite convergence by capturing critical features of the optimization trajectory while avoiding expensive evaluations of the objective and its gradient.
- Abstract(参考訳): 本研究では、制約のない最適化問題の連続時間ダイナミクスをモデル化し、予測するために、動的システムにおけるデータ駆動方程式探索の利用について検討する。
目的関数とその勾配の高価な評価を避けるため、最適化変数の軌道データを利用して勾配降下、ニュートン法、ADAM最適化に関連する連続時間ダイナミクスを学習する。
発見された勾配流は、元の最適化問題の代役として解かれる。
この目的のために、最適化プロセスにおいてユーザ定義間隔で、全次元または縮小次元空間における可変多項式順序の代理モデルを構築できるLearted Gradient Flow(LGF)オプティマイザを導入する。
本稿では,2つの逆問題,構造トポロジ最適化,異なる離散化を伴う2つの前方解を含む,工学力学と科学機械学習の標準的な問題に対するこのアプローチの有効性を実証する。
この結果から,学習した勾配流は,目標と勾配の高価な評価を回避しつつ,最適化軌道の重要な特徴を捉えることにより,収束を著しく向上させることができることが示唆された。
関連論文リスト
- Optimizing Optimizers for Fast Gradient-Based Learning [53.81268610971847]
勾配学習における設計の自動化に関する理論的基礎を築いた。
勾配損失信号をパラメータ運動に変換する関数として扱うことにより、この問題は凸最適化問題の族に還元される。
論文 参考訳(メタデータ) (2025-12-06T09:50:41Z) - AYLA: Amplifying Gradient Sensitivity via Loss Transformation in Non-Convex Optimization [0.0]
Gradient Descent (SGD)とその変種(ADAMなど)はディープラーニングの最適化の基礎となっている。
本稿では、動的トレーニングを強化する新しいフレームワークであるAYLAを紹介する。
論文 参考訳(メタデータ) (2025-04-02T16:31:39Z) - Understanding Optimization in Deep Learning with Central Flows [95.5647720254338]
複雑な状態における最適化のダイナミクスを記述できる理論を開発する。
この結果から,ディープラーニングの最適化を推論する上で,中央フローが重要な理論ツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-31T17:58:13Z) - Gradient-free neural topology optimization [0.0]
勾配のないアルゴリズムは勾配に基づくアルゴリズムと比較して多くの繰り返しを収束させる必要がある。
これにより、反復1回あたりの計算コストとこれらの問題の高次元性のため、トポロジ最適化では実現不可能となった。
我々は,潜時空間における設計を最適化する場合に,少なくとも1桁の繰り返し回数の減少につながる事前学習型ニューラルリパラメータ化戦略を提案する。
論文 参考訳(メタデータ) (2024-03-07T23:00:49Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Efficient Differentiable Simulation of Articulated Bodies [89.64118042429287]
本稿では, 音素の効率的な微分可能シミュレーション法を提案する。
これにより、ボディダイナミクスを深層学習フレームワークに統合することが可能になる。
提案手法を用いて, 調音システムによる強化学習を高速化できることを示す。
論文 参考訳(メタデータ) (2021-09-16T04:48:13Z) - An adaptive stochastic gradient-free approach for high-dimensional
blackbox optimization [0.0]
本研究では,高次元非平滑化問題に対する適応勾配フリー (ASGF) アプローチを提案する。
本稿では,グローバルな問題と学習タスクのベンチマークにおいて,本手法の性能について述べる。
論文 参考訳(メタデータ) (2020-06-18T22:47:58Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning [95.85269649177336]
ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
論文 参考訳(メタデータ) (2020-06-11T06:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。