論文の概要: A Survey on Multi-Objective based Parameter Optimization for Deep
Learning
- arxiv url: http://arxiv.org/abs/2305.10014v1
- Date: Wed, 17 May 2023 07:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 17:04:55.722409
- Title: A Survey on Multi-Objective based Parameter Optimization for Deep
Learning
- Title(参考訳): 深層学習のための多目的型パラメータ最適化に関する研究
- Authors: Mrittika Chakraborty (1), Wreetbhas Pal (1), Sanghamitra Bandyopadhyay
(2) and Ujjwal Maulik (1) ((1) Jadavpur University, (2) Indian Statistical
Institute)
- Abstract要約: 深層ニューラルネットワークを用いたパラメータ最適化における多目的最適化手法の有効性について検討する。
これら2つの手法を組み合わせて、複数のアプリケーションにおける予測と分析の生成に関する貴重な洞察を提供する。
- 参考スコア(独自算出の注目度): 1.3223682837381137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models form one of the most powerful machine learning models
for the extraction of important features. Most of the designs of deep neural
models, i.e., the initialization of parameters, are still manually tuned.
Hence, obtaining a model with high performance is exceedingly time-consuming
and occasionally impossible. Optimizing the parameters of the deep networks,
therefore, requires improved optimization algorithms with high convergence
rates. The single objective-based optimization methods generally used are
mostly time-consuming and do not guarantee optimum performance in all cases.
Mathematical optimization problems containing multiple objective functions that
must be optimized simultaneously fall under the category of multi-objective
optimization sometimes referred to as Pareto optimization. Multi-objective
optimization problems form one of the alternatives yet useful options for
parameter optimization. However, this domain is a bit less explored. In this
survey, we focus on exploring the effectiveness of multi-objective optimization
strategies for parameter optimization in conjunction with deep neural networks.
The case studies used in this study focus on how the two methods are combined
to provide valuable insights into the generation of predictions and analysis in
multiple applications.
- Abstract(参考訳): ディープラーニングモデルは、重要な特徴を抽出するための最も強力な機械学習モデルの1つである。
ディープニューラルモデルのほとんどの設計、すなわちパラメータの初期化は、まだ手動で調整されている。
したがって、高性能なモデルを得るのは非常に時間がかかり、時には不可能である。
したがって、ディープネットワークのパラメータを最適化するには、高い収束率で最適化アルゴリズムを改善する必要がある。
一般に使用される1つの目的ベース最適化手法は、主に時間消費であり、全ての場合において最適な性能を保証するものではない。
同時に最適化しなければならない複数の目的関数を含む数学的最適化問題は、パレート最適化と呼ばれる多目的最適化のカテゴリに該当する。
多目的最適化問題は、パラメータ最適化の選択肢でありながら有用な選択肢の1つである。
しかし、この領域は少しは検討されていない。
本稿では,深層ニューラルネットワークを用いたパラメータ最適化のための多目的最適化手法の有効性を検討する。
本研究で使用されるケーススタディは、複数のアプリケーションにおける予測と分析の生成に関する貴重な洞察を提供するために、この2つの手法を組み合わせる方法に焦点を当てている。
関連論文リスト
- Trajectory-Based Multi-Objective Hyperparameter Optimization for Model Retraining [8.598456741786801]
本稿では,新しいトラジェクトリベース多目的ベイズ最適化アルゴリズムを提案する。
我々のアルゴリズムは、より優れたトレードオフとチューニング効率の両面において、最先端のマルチオブジェクトよりも優れています。
論文 参考訳(メタデータ) (2024-05-24T07:43:45Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Evolutionary Solution Adaption for Multi-Objective Metal Cutting Process
Optimization [59.45414406974091]
我々は,従来の最適化タスクから解を転送するアルゴリズムの能力を研究することのできる,システムの柔軟性のためのフレームワークを提案する。
NSGA-IIの柔軟性を2つの変種で検討し,1)2つのタスクの解を同時に最適化し,より適応性が高いと期待されるソース間の解を得る,2)活性化あるいは非活性化の異なる可能性に対応する能動的非アクティブなジェノタイプについて検討した。
その結果,標準NSGA-IIによる適応は目標目標への最適化に必要な評価回数を大幅に削減し,提案した変種は適応コストをさらに向上することがわかった。
論文 参考訳(メタデータ) (2023-05-31T12:07:50Z) - Agent-based Collaborative Random Search for Hyper-parameter Tuning and
Global Function Optimization [0.0]
本稿では,機械学習モデルにおける任意のハイパーパラメータの任意の集合に対する近似値を求めるためのエージェントベース協調手法を提案する。
提案モデルの動作,特に設計パラメータの変化に対して,機械学習およびグローバル関数最適化アプリケーションの両方で検討する。
論文 参考訳(メタデータ) (2023-03-03T21:10:17Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Multi-Objective Hyperparameter Optimization in Machine Learning -- An Overview [10.081056751778712]
本稿では,多目的ハイパーパラメータ最適化の基礎を導入し,応用MLにおけるその有用性を動機づける。
進化的アルゴリズムの領域とベイズ最適化の両方から、既存の最適化戦略を広範囲に調査する。
動作条件,予測時間,スパースネス,フェアネス,解釈可能性,ロバストネスなどの目的を考慮し,複数の特定のMLアプリケーションにおけるMOOの有用性を解説する。
論文 参考訳(メタデータ) (2022-06-15T10:23:19Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Batched Data-Driven Evolutionary Multi-Objective Optimization Based on
Manifold Interpolation [6.560512252982714]
バッチ化されたデータ駆動型進化的多目的最適化を実現するためのフレームワークを提案する。
オフザシェルフ進化的多目的最適化アルゴリズムがプラグイン方式で適用できるのは、非常に一般的である。
提案するフレームワークは, より高速な収束と各種PF形状に対する強いレジリエンスを特徴とする。
論文 参考訳(メタデータ) (2021-09-12T23:54:26Z) - Bayesian Optimization for Selecting Efficient Machine Learning Models [53.202224677485525]
本稿では,予測効率とトレーニング効率の両面において,モデルを協調最適化するための統一ベイズ最適化フレームワークを提案する。
レコメンデーションタスクのためのモデル選択の実験は、この方法で選択されたモデルがモデルのトレーニング効率を大幅に改善することを示している。
論文 参考訳(メタデータ) (2020-08-02T02:56:30Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。