論文の概要: Learning to optimize by multi-gradient for multi-objective optimization
- arxiv url: http://arxiv.org/abs/2311.00559v1
- Date: Wed, 1 Nov 2023 14:55:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 13:15:39.561013
- Title: Learning to optimize by multi-gradient for multi-objective optimization
- Title(参考訳): 多目的最適化のための多段階最適化の学習
- Authors: Linxi Yang, Xinmin Yang, Liping Tang
- Abstract要約: 我々はMOO問題を最適化するための新しい自動学習パラダイムを導入し、ML2O法を提案する。
学習に基づく手法として、ML2Oは現在のステップからの情報を活用することで、地域景観の知識を取得する。
我々の学習は、マルチタスク学習(MTL)ニューラルネットワークのトレーニングにおいて、手作りの競争相手よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of artificial intelligence (AI) for science has led to the
emergence of learning-based research paradigms, necessitating a compelling
reevaluation of the design of multi-objective optimization (MOO) methods. The
new generation MOO methods should be rooted in automated learning rather than
manual design. In this paper, we introduce a new automatic learning paradigm
for optimizing MOO problems, and propose a multi-gradient learning to optimize
(ML2O) method, which automatically learns a generator (or mappings) from
multiple gradients to update directions. As a learning-based method, ML2O
acquires knowledge of local landscapes by leveraging information from the
current step and incorporates global experience extracted from historical
iteration trajectory data. By introducing a new guarding mechanism, we propose
a guarded multi-gradient learning to optimize (GML2O) method, and prove that
the iterative sequence generated by GML2O converges to a Pareto critical point.
The experimental results demonstrate that our learned optimizer outperforms
hand-designed competitors on training multi-task learning (MTL) neural network.
- Abstract(参考訳): 科学のための人工知能(AI)の開発は、学習に基づく研究パラダイムの出現につながり、多目的最適化(MOO)手法の設計の再評価を必要とする。
新しい世代のMOOメソッドは、手動設計よりも自動学習に根ざすべきである。
本稿では,MOO問題を最適化するための新しい自動学習パラダイムを提案し,複数の勾配から生成元(あるいはマッピング)を自動的に学習して方向を更新するML2O法を提案する。
学習に基づく手法として,ML2Oは現在のステップからの情報を活用し,過去の反復軌跡データから抽出したグローバルな経験を取り入れたローカルランドスケープの知識を取得する。
新しいガード機構を導入することで,gml2o法を最適化するガード付き多段階学習を提案し,gml2o法によって生成された反復シーケンスがパレート臨界点に収束することを示す。
実験の結果,学習したオプティマイザは,マルチタスク学習(MTL)ニューラルネットワークのトレーニングにおいて,手作りの競合他社よりも優れていた。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: An Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
特に、勾配に基づく最適化から理論的な枠組みや学習手法を借用し、改良された戦略を設計する。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - Interleaving Learning, with Application to Neural Architecture Search [12.317568257671427]
インターリーブ学習(IL)と呼ばれる新しい機械学習フレームワークを提案する。
私たちのフレームワークでは、一連のモデルが相互に連携してデータエンコーダを学習します。
CIFAR-10, CIFAR-100, ImageNetの画像分類にインターリービング学習を適用した。
論文 参考訳(メタデータ) (2021-03-12T00:54:22Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z) - MTL2L: A Context Aware Neural Optimiser [25.114351877091785]
MTL2L(Multi-Task Learning to Learn)は、入力データに基づいて最適化ルールを自己修正する文脈認識型ニューラルネットワークオプティマイザである。
MTL2Lは,メタテストフェーズにおいて,未知の入力領域のデータに基づいて学習者の分類を更新できることを示す。
論文 参考訳(メタデータ) (2020-07-18T06:37:30Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - Gradient Monitored Reinforcement Learning [0.0]
我々は、強化学習アルゴリズムにおける訓練の強化と評価性能に焦点をあてる。
本稿では,トレーニングプロセス自体からの動的発達とフィードバックに基づいて,ニューラルネットワークの重みパラメータの学習をステアリングする手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T13:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。