論文の概要: Momentum-based Gradient Methods in Multi-Objective Recommendation
- arxiv url: http://arxiv.org/abs/2009.04695v3
- Date: Wed, 1 Sep 2021 16:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 02:34:18.614233
- Title: Momentum-based Gradient Methods in Multi-Objective Recommendation
- Title(参考訳): 多目的レコメンデーションにおけるモーメントベース勾配法
- Authors: Blagoj Mitrevski, Milena Filipovic, Diego Antognini, Emma Lejal
Glaude, Boi Faltings, Claudiu Musat
- Abstract要約: 単目的問題の解法として,多目的モデルに依存しないAdamize法を提案する。
我々は2つの多目的レコメンデータシステムと3つの異なる目的の組み合わせに対して、多目的Adamizeの利点を評価する。
- 参考スコア(独自算出の注目度): 30.894950420437926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-objective gradient methods are becoming the standard for solving
multi-objective problems. Among others, they show promising results in
developing multi-objective recommender systems with both correlated and
conflicting objectives. Classic multi-gradient~descent usually relies on the
combination of the gradients, not including the computation of first and second
moments of the gradients. This leads to a brittle behavior and misses important
areas in the solution space. In this work, we create a multi-objective
model-agnostic Adamize method that leverages the benefits of the Adam optimizer
in single-objective problems. This corrects and stabilizes~the~gradients of
every objective before calculating a common gradient descent vector that
optimizes all the objectives simultaneously. We evaluate the benefits of
Multi-objective Adamize on two multi-objective recommender systems and for
three different objective combinations, both correlated or conflicting. We
report significant improvements, measured with three different Pareto front
metrics: hypervolume, coverage, and spacing. Finally, we show that the
\textit{Adamized} Pareto front strictly dominates the previous one on multiple
objective pairs.
- Abstract(参考訳): 多目的勾配法は多目的問題を解くための標準となっている。
中でも,相関目標と競合目標の両方を持つ多目的レコメンダシステムの開発において,有望な結果が得られている。
古典的な多階偏光は、通常勾配の第一モーメントと第二モーメントの計算を含まない勾配の組み合わせに依存する。
これは不安定な振る舞いをもたらし、ソリューション空間の重要な領域を見逃します。
本研究では,単目的問題におけるアダム最適化の利点を利用する多目的モデル非依存Adamize法を提案する。
これは、すべての目的を同時に最適化する共通の勾配降下ベクトルを計算する前に、すべての目標の−−段階を補正し、安定化する。
2つの多目的レコメンデーションシステムと3つの異なる目的の組み合わせにおいて,多目的アダミゼーションの利点を評価する。
3つの異なるParetoフロントメトリクス(ハイパーボリューム、カバレッジ、間隔)で測定し、大幅な改善を報告した。
最後に、Pareto フロントは、複数の目的対において、前者よりも厳密に支配的であることを示す。
関連論文リスト
- Unlocking Decoding-time Controllability: Gradient-Free Multi-Objective Alignment with Contrastive Prompts [38.95012734839997]
多目的アライメントは、大きな言語モデルの異なるアライメント目標のバランスと制御を目的としている。
MCA(Multi-objective Contrastive Alignemnt)を提案する。
論文 参考訳(メタデータ) (2024-08-09T14:36:42Z) - Deep Pareto Reinforcement Learning for Multi-Objective Recommender Systems [60.91599969408029]
複数の目的を同時に最適化することは、レコメンデーションプラットフォームにとって重要なタスクです。
既存の多目的推薦システムは、そのような動的な関係を体系的に考慮していない。
論文 参考訳(メタデータ) (2024-07-04T02:19:49Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - Controllable Preference Optimization: Toward Controllable Multi-Objective Alignment [103.12563033438715]
人工知能におけるアライメントは、モデル応答と人間の好みと値の一貫性を追求する。
既存のアライメント技術は、主に一方向であり、様々な目的に対して、最適以下のトレードオフと柔軟性の低下につながる。
制御可能な選好最適化(CPO)を導入し、異なる目的に対する選好スコアを明確に指定する。
論文 参考訳(メタデータ) (2024-02-29T12:12:30Z) - Applying Ising Machines to Multi-objective QUBOs [0.0]
2つ以上の目的を持つ問題に対してスカラー化重みを導出する適応的手法を拡張した。
3 と 4 つの目的を持つマルチオブジェクト非制約バイナリ二次プログラミング (mUBQP) インスタンス上での最高の性能を示す。
論文 参考訳(メタデータ) (2023-05-19T12:53:48Z) - A Scale-Independent Multi-Objective Reinforcement Learning with
Convergence Analysis [0.6091702876917281]
多くのシーケンシャルな意思決定問題は、対立する可能性のある異なる目的の最適化を必要とする。
本稿では,Advantage Actor-Critic (A2C)アルゴリズムに基づいて,単エージェントスケール非依存型多目的強化学習を開発する。
次に、収束保証を提供する考案された多目的アルゴリズムに対して収束解析を行う。
論文 参考訳(メタデータ) (2023-02-08T16:38:55Z) - Mitigating Gradient Bias in Multi-objective Learning: A Provably Convergent Stochastic Approach [38.76462300149459]
我々は多目的勾配最適化のための多目的補正法(MoCo)を開発した。
本手法の特長は,非公正勾配を増大させることなく収束を保証できる点である。
論文 参考訳(メタデータ) (2022-10-23T05:54:26Z) - Provable Multi-Objective Reinforcement Learning with Generative Models [98.19879408649848]
目的の選好から最適な政策を学習する単一政策 MORL の問題について検討する。
既存の方法は、多目的決定プロセスの正確な知識のような強い仮定を必要とする。
モデルベースエンベロップ値 (EVI) と呼ばれる新しいアルゴリズムを提案し, 包含された多目的$Q$学習アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2020-11-19T22:35:31Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - Follow the bisector: a simple method for multi-objective optimization [65.83318707752385]
複数の異なる損失を最小化しなければならない最適化問題を考える。
提案手法は、各イテレーションにおける降下方向を計算し、目的関数の相対的減少を等しく保証する。
論文 参考訳(メタデータ) (2020-07-14T09:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。