論文の概要: Collaborative Pareto Set Learning in Multiple Multi-Objective Optimization Problems
- arxiv url: http://arxiv.org/abs/2404.01224v1
- Date: Mon, 1 Apr 2024 16:31:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 21:46:03.126702
- Title: Collaborative Pareto Set Learning in Multiple Multi-Objective Optimization Problems
- Title(参考訳): 多目的最適化問題における協調的パレート集合学習
- Authors: Chikai Shang, Rongguang Ye, Jiaqi Jiang, Fangqing Gu,
- Abstract要約: 本稿では,多目的最適化問題を学習するための協調フレームワークを提案する。
種々の多目的最適化問題(MOP)に共通表現が存在することを実験的に実証した。
我々のフレームワークは、様々な合成および実世界のMOPに対する最先端のアプローチよりも優れている。
- 参考スコア(独自算出の注目度): 2.5338347389265294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pareto Set Learning (PSL) is an emerging research area in multi-objective optimization, focusing on training neural networks to learn the mapping from preference vectors to Pareto optimal solutions. However, existing PSL methods are limited to addressing a single Multi-objective Optimization Problem (MOP) at a time. When faced with multiple MOPs, this limitation not only leads to significant inefficiencies but also fails to exploit the potential synergies across varying MOPs. In this paper, we propose a Collaborative Pareto Set Learning (CoPSL) framework, which simultaneously learns the Pareto sets of multiple MOPs in a collaborative manner. CoPSL employs an architecture consisting of shared and MOP-specific layers, where shared layers aim to capture common relationships among MOPs collaboratively, and MOP-specific layers process these relationships to generate solution sets for each MOP. This collaborative approach enables CoPSL to efficiently learn the Pareto sets of multiple MOPs in a single run while leveraging the relationships among various MOPs. To further understand these relationships, we experimentally demonstrate that there exist shareable representations among MOPs. Leveraging these collaboratively shared representations can effectively improve the capability to approximate Pareto sets. Extensive experiments underscore the superior efficiency and robustness of CoPSL in approximating Pareto sets compared to state-of-the-art approaches on a variety of synthetic and real-world MOPs. Code is available at https://github.com/ckshang/CoPSL.
- Abstract(参考訳): Pareto Set Learning (PSL)は、好みベクトルからPareto最適解へのマッピングを学ぶためにニューラルネットワークをトレーニングすることに焦点を当てた、多目的最適化における新たな研究領域である。
しかし、既存のPSL法は、一度に1つの多目的最適化問題(MOP)に対処することに限定されている。
複数のMOPに直面すると、この制限は大きな非効率をもたらすだけでなく、様々なMOPにまたがる潜在的なシナジーの活用にも失敗する。
本稿では,複数のMOPのパレート集合を協調的に学習するコラボレーティブ・パレート・セット・ラーニング(CoPSL)フレームワークを提案する。
CoPSLは、共有層とMOP固有のレイヤからなるアーキテクチャを採用しており、共有層は、MOP間の共通関係を協調的にキャプチャすることを目的としており、MOP固有のレイヤは、これらの関係を処理し、各MOPに対するソリューションセットを生成する。
このコラボレーティブなアプローチにより、CoPSLは複数のMOPのPareto集合を1回の実行で効率的に学習し、様々なMOP間の関係を活用できる。
これらの関係をより深く理解するために,MOP間に共有可能な表現が存在することを実験的に実証した。
これらの協調的に共有された表現を活用することで、パレート集合を近似する能力を効果的に改善することができる。
大規模な実験により、パレート集合の近似におけるCoPSLの優れた効率性とロバスト性は、様々な合成および実世界のMOPに対する最先端のアプローチと比較できる。
コードはhttps://github.com/ckshang/CoPSL.comで入手できる。
関連論文リスト
- When One LLM Drools, Multi-LLM Collaboration Rules [98.71562711695991]
私たちは、データ、スキル、人々の幅広い多様性を表現するために、マルチLLMコラボレーションを議論しています。
既存のマルチLLM協調手法を,アクセスレベルと情報交換レベルに基づいて階層構造に整理する。
コンポジションインテリジェンスとコラボレーティブAI開発への不可欠な道として,マルチLLMコラボレーションを構想する。
論文 参考訳(メタデータ) (2025-02-06T21:13:44Z) - Combinatorial Optimization Perspective based Framework for Multi-behavior Recommendation [23.26102452699347]
本稿では,COPF という最適化視点に基づく新しいマルチビヘイビア・レコメンデーション・フレームワークを提案する。
予測ステップでは,複数の専門家の生成と集約において,前向きと後向きの両方の伝搬を改善する。
3つの実世界のデータセットの実験は、COPFの優位性を示している。
論文 参考訳(メタデータ) (2025-02-04T11:19:47Z) - Pareto Set Learning for Multi-Objective Reinforcement Learning [19.720934024901542]
MORL(Multi-Objective RL)のための分解ベースフレームワークを提案する。
PSL-MORLは、ハイパーネットワークの生成能力を利用して、各分解重量に対するポリシーネットワークのパラメータを生成する。
PSL-MORL は高体積, 疎度指標において最先端の MORL 法より有意に優れていた。
論文 参考訳(メタデータ) (2025-01-12T10:43:05Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - Uni-MoE: Scaling Unified Multimodal LLMs with Mixture of Experts [54.529880848937104]
そこで我々は,MoEアーキテクチャをUni-MoEと呼ぶ一貫したMLLMを開発し,様々なモダリティを扱えるようにした。
具体的には、統一マルチモーダル表現のためのコネクタを持つモダリティ特化エンコーダを特徴とする。
マルチモーダルデータセットの包括的集合を用いた命令調整Uni-MoEの評価を行った。
論文 参考訳(メタデータ) (2024-05-18T12:16:01Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - Federated Multi-Objective Learning [22.875284692358683]
複数のクライアントを用いたFMOL(Federated Multi-Objective Learning)フレームワークを提案する。
私たちのFMOLフレームワークは、異なるクライアント間で異なる目的関数セットを提供し、幅広いアプリケーションをサポートします。
本フレームワークでは,FSMGDA (Federated Multi-gradient descent Averaging) とFSMGDA (Federated Multi-gradient descent Averaging) という2つの新しいFMOOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-15T15:45:51Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Provably Efficient Cooperative Multi-Agent Reinforcement Learning with
Function Approximation [15.411902255359074]
定常的な通信予算を一定に保っても,ほぼ最適に学習できることを示す。
私たちの仕事は、マルチエージェントコンテキストとマルチアームバンディット文学からMDP、強化学習まで、いくつかのアイデアを一般化します。
論文 参考訳(メタデータ) (2021-03-08T18:51:00Z) - Learning Robust State Abstractions for Hidden-Parameter Block MDPs [55.31018404591743]
我々は、ブロックMDPにインスパイアされた堅牢な状態抽象化を実現するために、HiP-MDP設定からの共通構造の概念を活用する。
マルチタスク強化学習 (MTRL) とメタ強化学習 (Meta-RL) の両方のための新しいフレームワークのインスタンス化を導出する。
論文 参考訳(メタデータ) (2020-07-14T17:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。