論文の概要: Collaborative Pareto Set Learning in Multiple Multi-Objective Optimization Problems
- arxiv url: http://arxiv.org/abs/2404.01224v2
- Date: Sun, 28 Apr 2024 13:14:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 22:56:04.185292
- Title: Collaborative Pareto Set Learning in Multiple Multi-Objective Optimization Problems
- Title(参考訳): 多目的最適化問題における協調的パレート集合学習
- Authors: Chikai Shang, Rongguang Ye, Jiaqi Jiang, Fangqing Gu,
- Abstract要約: 本稿では,多目的最適化問題を学習するための協調フレームワークを提案する。
種々の多目的最適化問題(MOP)の中に共有可能な表現が存在することを実験的に実証した。
CoPSLは、様々な合成および実世界のMOPに対する最先端のアプローチよりも優れている。
- 参考スコア(独自算出の注目度): 2.5338347389265294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pareto Set Learning (PSL) is an emerging research area in multi-objective optimization, focusing on training neural networks to learn the mapping from preference vectors to Pareto optimal solutions. However, existing PSL methods are limited to addressing a single Multi-objective Optimization Problem (MOP) at a time. When faced with multiple MOPs, this limitation results in significant inefficiencies and hinders the ability to exploit potential synergies across varying MOPs. In this paper, we propose a Collaborative Pareto Set Learning (CoPSL) framework, which learns the Pareto sets of multiple MOPs simultaneously in a collaborative manner. CoPSL particularly employs an architecture consisting of shared and MOP-specific layers. The shared layers are designed to capture commonalities among MOPs collaboratively, while the MOP-specific layers tailor these general insights to generate solution sets for individual MOPs. This collaborative approach enables CoPSL to efficiently learn the Pareto sets of multiple MOPs in a single execution while leveraging the potential relationships among various MOPs. To further understand these relationships, we experimentally demonstrate that shareable representations exist among MOPs. Leveraging these shared representations effectively improves the capability to approximate Pareto sets. Extensive experiments underscore the superior efficiency and robustness of CoPSL in approximating Pareto sets compared to state-of-the-art approaches on a variety of synthetic and real-world MOPs. Code is available at https://github.com/ckshang/CoPSL.
- Abstract(参考訳): Pareto Set Learning (PSL)は、好みベクトルからPareto最適解へのマッピングを学ぶためにニューラルネットワークをトレーニングすることに焦点を当てた、多目的最適化における新たな研究領域である。
しかし、既存のPSL法は、一度に1つの多目的最適化問題(MOP)に対処することに限定されている。
複数のMOPに直面すると、この制限は大きな非効率性をもたらし、様々なMOPにまたがる潜在的なシナジーを活用できなくなる。
本稿では,複数のMOPのパレート集合を協調的に学習するコラボレーティブ・パレート・セット・ラーニング(CoPSL)フレームワークを提案する。
CoPSLは特に、共有層とMOP固有の層からなるアーキテクチャを採用している。
共有レイヤは、MOP間の共通性を協調的にキャプチャするために設計され、MOP固有のレイヤは、これらの一般的な洞察を調整して、個々のMOPのためのソリューションセットを生成する。
このコラボレーティブなアプローチにより、CoPSLは複数のMOPのPareto集合を単一の実行で効率的に学習し、様々なMOP間の潜在的な関係を活用できる。
これらの関係をより深く理解するために,MOP間で共有可能な表現が存在することを実験的に実証した。
これらの共有表現を活用することで、パレート集合を近似する能力が効果的に向上する。
大規模な実験により、パレート集合の近似におけるCoPSLの優れた効率性とロバスト性が、様々な合成および実世界のMOPに対する最先端のアプローチと比較された。
コードはhttps://github.com/ckshang/CoPSL.comで入手できる。
関連論文リスト
- When One LLM Drools, Multi-LLM Collaboration Rules [98.71562711695991]
私たちは、データ、スキル、人々の幅広い多様性を表現するために、マルチLLMコラボレーションを議論しています。
既存のマルチLLM協調手法を,アクセスレベルと情報交換レベルに基づいて階層構造に整理する。
コンポジションインテリジェンスとコラボレーティブAI開発への不可欠な道として,マルチLLMコラボレーションを構想する。
論文 参考訳(メタデータ) (2025-02-06T21:13:44Z) - Combinatorial Optimization Perspective based Framework for Multi-behavior Recommendation [23.26102452699347]
本稿では,COPF という最適化視点に基づく新しいマルチビヘイビア・レコメンデーション・フレームワークを提案する。
予測ステップでは,複数の専門家の生成と集約において,前向きと後向きの両方の伝搬を改善する。
3つの実世界のデータセットの実験は、COPFの優位性を示している。
論文 参考訳(メタデータ) (2025-02-04T11:19:47Z) - Pareto Set Learning for Multi-Objective Reinforcement Learning [19.720934024901542]
MORL(Multi-Objective RL)のための分解ベースフレームワークを提案する。
PSL-MORLは、ハイパーネットワークの生成能力を利用して、各分解重量に対するポリシーネットワークのパラメータを生成する。
PSL-MORL は高体積, 疎度指標において最先端の MORL 法より有意に優れていた。
論文 参考訳(メタデータ) (2025-01-12T10:43:05Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - Uni-MoE: Scaling Unified Multimodal LLMs with Mixture of Experts [54.529880848937104]
そこで我々は,MoEアーキテクチャをUni-MoEと呼ぶ一貫したMLLMを開発し,様々なモダリティを扱えるようにした。
具体的には、統一マルチモーダル表現のためのコネクタを持つモダリティ特化エンコーダを特徴とする。
マルチモーダルデータセットの包括的集合を用いた命令調整Uni-MoEの評価を行った。
論文 参考訳(メタデータ) (2024-05-18T12:16:01Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - Federated Multi-Objective Learning [22.875284692358683]
複数のクライアントを用いたFMOL(Federated Multi-Objective Learning)フレームワークを提案する。
私たちのFMOLフレームワークは、異なるクライアント間で異なる目的関数セットを提供し、幅広いアプリケーションをサポートします。
本フレームワークでは,FSMGDA (Federated Multi-gradient descent Averaging) とFSMGDA (Federated Multi-gradient descent Averaging) という2つの新しいFMOOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-15T15:45:51Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Provably Efficient Cooperative Multi-Agent Reinforcement Learning with
Function Approximation [15.411902255359074]
定常的な通信予算を一定に保っても,ほぼ最適に学習できることを示す。
私たちの仕事は、マルチエージェントコンテキストとマルチアームバンディット文学からMDP、強化学習まで、いくつかのアイデアを一般化します。
論文 参考訳(メタデータ) (2021-03-08T18:51:00Z) - Learning Robust State Abstractions for Hidden-Parameter Block MDPs [55.31018404591743]
我々は、ブロックMDPにインスパイアされた堅牢な状態抽象化を実現するために、HiP-MDP設定からの共通構造の概念を活用する。
マルチタスク強化学習 (MTRL) とメタ強化学習 (Meta-RL) の両方のための新しいフレームワークのインスタンス化を導出する。
論文 参考訳(メタデータ) (2020-07-14T17:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。