論文の概要: Neural Optimization Machine: A Neural Network Approach for Optimization
- arxiv url: http://arxiv.org/abs/2208.03897v1
- Date: Mon, 8 Aug 2022 03:34:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:31:40.209759
- Title: Neural Optimization Machine: A Neural Network Approach for Optimization
- Title(参考訳): ニューラルネットワーク最適化マシン:最適化のためのニューラルネットワークアプローチ
- Authors: Jie Chen, Yongming Liu
- Abstract要約: 制約付き最適化のための新しいニューラルネットワーク(NN)アプローチを提案する。
提案手法はニューラル・オプティマイゼーション・マシン(NOM)と呼ばれる特別設計のNNアーキテクチャとトレーニング/最適化手法を用いている。
- 参考スコア(独自算出の注目度): 10.283797653337132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A novel neural network (NN) approach is proposed for constrained
optimization. The proposed method uses a specially designed NN architecture and
training/optimization procedure called Neural Optimization Machine (NOM). The
objective functions for the NOM are approximated with NN models. The
optimization process is conducted by the neural network's built-in
backpropagation algorithm. The NOM solves optimization problems by extending
the architecture of the NN objective function model. This is achieved by
appropriately designing the NOM's structure, activation function, and loss
function. The NN objective function can have arbitrary architectures and
activation functions. The application of the NOM is not limited to specific
optimization problems, e.g., linear and quadratic programming. It is shown that
the increase of dimension of design variables does not increase the
computational cost significantly. Then, the NOM is extended for multiobjective
optimization. Finally, the NOM is tested using numerical optimization problems
and applied for the optimal design of processing parameters in additive
manufacturing.
- Abstract(参考訳): 制約付き最適化のための新しいニューラルネットワーク(NN)アプローチを提案する。
提案手法はニューラル最適化機械 (neural optimization machine, nom) と呼ばれる特別に設計されたnnアーキテクチャとトレーニング/最適化手順を用いる。
NOMの目的関数はNNモデルで近似される。
最適化プロセスは、ニューラルネットワークの組み込みバックプロパゲーションアルゴリズムによって実行される。
NOMは、NN目的関数モデルのアーキテクチャを拡張して最適化問題を解決する。
これはNOMの構造、アクティベーション関数、損失関数を適切に設計することで達成される。
NN目的関数は任意のアーキテクチャとアクティベーション関数を持つことができる。
NOMの応用は、線形計画法や二次計画法のような特定の最適化問題に限らない。
設計変数の次元の増加は計算コストを大幅に増加させるものではないことが示されている。
次に、NOMを多目的最適化のために拡張する。
最後に, 数値最適化問題を用いてNOMを試験し, 加法製造における処理パラメータの最適設計に適用した。
関連論文リスト
- Explicit and Implicit Graduated Optimization in Deep Neural Networks [0.6906005491572401]
本稿では,最適雑音スケジューリングを用いた明示的な累積最適化アルゴリズムの性能を実験的に評価する。
さらに、ResNetアーキテクチャを用いた画像分類タスクの実験を通じて、その効果を実証する。
論文 参考訳(メタデータ) (2024-12-16T07:23:22Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Dynamically configured physics-informed neural network in topology
optimization applications [4.403140515138818]
物理インフォームドニューラルネットワーク(PINN)は、前方問題を解決する際に大量のデータを生成するのを避けることができる。
動的に構成された PINN-based Topology Optimization (DCPINN-TO) 法を提案する。
変位予測と最適化結果の精度は,DCPINN-TO法が効率的かつ効率的であることを示している。
論文 参考訳(メタデータ) (2023-12-12T05:35:30Z) - Reducing the Need for Backpropagation and Discovering Better Optima With
Explicit Optimizations of Neural Networks [4.807347156077897]
本稿では,ニューラルネットワークの最適化のための計算効率のよい代替案を提案する。
我々は、単純なフィードフォワード言語モデルに対する明確な解決策を導出する。
実験では,明示的な解がほぼ最適であることを示す。
論文 参考訳(メタデータ) (2023-11-13T17:38:07Z) - Polynomial-Model-Based Optimization for Blackbox Objectives [0.0]
ブラックボックス最適化は、事前定義された目的関数が最小化されるようなシステムに対して最適なパラメータを求める。
PMBOは目的関数にサロゲートを合わせることで最小値を求める新しいブラックボックスである。
PMBOは、与えられた人工的解析関数のセットに対して、他の最先端のアルゴリズムとベンチマークされる。
論文 参考訳(メタデータ) (2023-09-01T14:11:03Z) - Evolutionary Solution Adaption for Multi-Objective Metal Cutting Process
Optimization [59.45414406974091]
我々は,従来の最適化タスクから解を転送するアルゴリズムの能力を研究することのできる,システムの柔軟性のためのフレームワークを提案する。
NSGA-IIの柔軟性を2つの変種で検討し,1)2つのタスクの解を同時に最適化し,より適応性が高いと期待されるソース間の解を得る,2)活性化あるいは非活性化の異なる可能性に対応する能動的非アクティブなジェノタイプについて検討した。
その結果,標準NSGA-IIによる適応は目標目標への最適化に必要な評価回数を大幅に削減し,提案した変種は適応コストをさらに向上することがわかった。
論文 参考訳(メタデータ) (2023-05-31T12:07:50Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z) - Optimizing Wireless Systems Using Unsupervised and
Reinforced-Unsupervised Deep Learning [96.01176486957226]
無線ネットワークにおけるリソース割り当てとトランシーバーは、通常最適化問題の解決によって設計される。
本稿では,変数最適化と関数最適化の両問題を解くための教師なし・教師なし学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2020-01-03T11:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。