論文の概要: Mitigating Gradient Bias in Multi-objective Learning: A Provably
Convergent Stochastic Approach
- arxiv url: http://arxiv.org/abs/2210.12624v1
- Date: Sun, 23 Oct 2022 05:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 18:12:25.198796
- Title: Mitigating Gradient Bias in Multi-objective Learning: A Provably
Convergent Stochastic Approach
- Title(参考訳): 多目的学習における勾配バイアスの緩和:確率論的アプローチ
- Authors: Heshan Fernando, Han Shen, Miao Liu, Subhajit Chaudhury, Keerthiram
Murugesan, Tianyi Chen
- Abstract要約: 我々は多目的勾配最適化のための多目的補正法(MoCo)を開発した。
本手法の特長は,非公正勾配を増大させることなく収束を保証できる点である。
- 参考スコア(独自算出の注目度): 23.433849165542796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning problems with multiple objective functions appear either in
learning with multiple criteria where learning has to make a trade-off between
multiple performance metrics such as fairness, safety and accuracy; or, in
multi-task learning where multiple tasks are optimized jointly, sharing
inductive bias between them. This problems are often tackled by the
multi-objective optimization framework. However, existing stochastic
multi-objective gradient methods and its variants (e.g., MGDA, PCGrad, CAGrad,
etc.) all adopt a biased noisy gradient direction, which leads to degraded
empirical performance. To this end, we develop a stochastic Multi-objective
gradient Correction (MoCo) method for multi-objective optimization. The unique
feature of our method is that it can guarantee convergence without increasing
the batch size even in the non-convex setting. Simulations on multi-task
supervised and reinforcement learning demonstrate the effectiveness of our
method relative to state-of-the-art methods.
- Abstract(参考訳): 複数の目的関数を持つ機械学習問題は、公正性や安全性、正確性といった複数のパフォーマンス指標間のトレードオフを学習する複数の基準で学習する場合や、複数のタスクを共同で最適化したマルチタスク学習において、それら間で帰納的バイアスを共有する場合に現れる。
この問題は多目的最適化フレームワークによってしばしば取り組まれる。
しかし、既存の確率的多目的勾配法とその変種(MGDA、PCGrad、CAGradなど)はすべてバイアス付き雑音勾配方向を採用しており、経験的性能が劣化する。
そこで我々は,多目的最適化のための確率的多目的勾配補正法(MoCo)を開発した。
本手法の特長は,非凸設定においてもバッチサイズを増大させることなく収束を保証できる点である。
マルチタスク指導および強化学習のシミュレーションは,最先端手法と比較して,本手法の有効性を示す。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - Multi-Task Learning with Multi-Task Optimization [31.518330903602095]
最適化されているが、よく分散されたモデルの集合が、1つのアルゴリズムパスで異なるトレードオフを具現化していることを示す。
様々な問題設定を解決するために,マルチタスク最適化を用いたマルチタスク学習を提案する。
論文 参考訳(メタデータ) (2024-03-24T14:04:40Z) - On Task Performance and Model Calibration with Supervised and
Self-Ensembled In-Context Learning [71.44986275228747]
In-context Learning (ICL) は、近年の大規模言語モデル(LLM)の進歩により、効率的なアプローチとなっている。
しかし、両方のパラダイムは、過信の批判的な問題(すなわち、誤校正)に苦しむ傾向にある。
論文 参考訳(メタデータ) (2023-12-21T11:55:10Z) - Three-Way Trade-Off in Multi-Objective Learning: Optimization,
Generalization and Conflict-Avoidance [47.42067405054353]
MOL(Multi-objective Learning)は、機械学習の新興問題においてしばしば発生する問題である。
MOLにおける重要な課題の1つは、反復最適化プロセスにおける異なる目的間の潜在的な衝突である。
近年,MGDAやその変種など,MOLの動的重み付けアルゴリズムが開発されている。
論文 参考訳(メタデータ) (2023-05-31T17:31:56Z) - A Scale-Independent Multi-Objective Reinforcement Learning with
Convergence Analysis [0.6091702876917281]
多くのシーケンシャルな意思決定問題は、対立する可能性のある異なる目的の最適化を必要とする。
本稿では,Advantage Actor-Critic (A2C)アルゴリズムに基づいて,単エージェントスケール非依存型多目的強化学習を開発する。
次に、収束保証を提供する考案された多目的アルゴリズムに対して収束解析を行う。
論文 参考訳(メタデータ) (2023-02-08T16:38:55Z) - One Step at a Time: Pros and Cons of Multi-Step Meta-Gradient
Reinforcement Learning [61.662504399411695]
より正確でロバストなメタ勾配信号を持つ複数の内部ステップを混合する新しい手法を提案する。
Snakeゲームに適用した場合、混合メタグラディエントアルゴリズムは、類似または高い性能を達成しつつ、その分散を3倍に削減することができる。
論文 参考訳(メタデータ) (2021-10-30T08:36:52Z) - Conflict-Averse Gradient Descent for Multi-task Learning [56.379937772617]
マルチタスクモデルを最適化する際の大きな課題は、矛盾する勾配である。
本稿では、平均損失関数を最小化する衝突-逆勾配降下(CAGrad)を導入する。
CAGradは目標を自動的にバランスし、平均損失よりも最小限に確実に収束する。
論文 参考訳(メタデータ) (2021-10-26T22:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。