論文の概要: Voronoi-grid-based Pareto Front Learning and Its Application to Collaborative Federated Learning
- arxiv url: http://arxiv.org/abs/2505.20648v1
- Date: Tue, 27 May 2025 02:53:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.365995
- Title: Voronoi-grid-based Pareto Front Learning and Its Application to Collaborative Federated Learning
- Title(参考訳): ヴォロノイグリッドに基づくパレートフロントラーニングと協調的フェデレーションラーニングへの応用
- Authors: Mengmeng Chen, Xiaohu Wu, Qiqi Liu, Tiantian He, Yew-Soon Ong, Yaochu Jin, Qicheng Lao, Han Yu,
- Abstract要約: 本稿では,設計空間をVoronoiグリッドに分解し,高次元空間内でのVoronoiグリッド分割のための遺伝的アルゴリズムをデプロイするPHN-HVVSを紹介する。
複数のMOO機械学習タスクの結果は、PHN-HVVSがベースラインを大幅に上回ることを示した。
- 参考スコア(独自算出の注目度): 45.66663796692696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-objective optimization (MOO) exists extensively in machine learning, and aims to find a set of Pareto-optimal solutions, called the Pareto front, e.g., it is fundamental for multiple avenues of research in federated learning (FL). Pareto-Front Learning (PFL) is a powerful method implemented using Hypernetworks (PHNs) to approximate the Pareto front. This method enables the acquisition of a mapping function from a given preference vector to the solutions on the Pareto front. However, most existing PFL approaches still face two challenges: (a) sampling rays in high-dimensional spaces; (b) failing to cover the entire Pareto Front which has a convex shape. Here, we introduce a novel PFL framework, called as PHN-HVVS, which decomposes the design space into Voronoi grids and deploys a genetic algorithm (GA) for Voronoi grid partitioning within high-dimensional space. We put forward a new loss function, which effectively contributes to more extensive coverage of the resultant Pareto front and maximizes the HV Indicator. Experimental results on multiple MOO machine learning tasks demonstrate that PHN-HVVS outperforms the baselines significantly in generating Pareto front. Also, we illustrate that PHN-HVVS advances the methodologies of several recent problems in the FL field. The code is available at https://github.com/buptcmm/phnhvvs}{https://github.com/buptcmm/phnhvvs.
- Abstract(参考訳): 多目的最適化(MOO)は機械学習において広く存在し、Paretofrontと呼ばれるパレート最適化ソリューションの集合を見つけることを目的としている。
Pareto-Front Learning (PFL) は、Hypernetworks (PHN) を用いてパレートフロントを近似する強力な手法である。
この方法は、与えられた選好ベクトルからパレートフロント上の解への写像関数の取得を可能にする。
しかし、既存のPFLアプローチのほとんどは、以下の2つの課題に直面している。
(a)高次元空間におけるサンプリング線
(b)凸形のパレートフロント全体を覆わないこと。
本稿では,新しいPFLフレームワークであるPHN-HVVSを紹介し,設計空間をVoronoiグリッドに分解し,高次元空間内でのVoronoiグリッド分割のための遺伝的アルゴリズム(GA)をデプロイする。
我々は新たな損失関数を提案し、その結果のパレートフロントをより広範囲にカバーし、HVインディケータを最大化する。
複数のMOO機械学習タスクの実験結果は、PHN-HVVSがパレートフロントの生成においてベースラインを大幅に上回っていることを示している。
また、PHN-HVVSは最近のFL分野におけるいくつかの問題の方法論を進歩させることを示す。
コードはhttps://github.com/buptcmm/phnhvvs}{https://github.com/buptcmm/phnhvvs.comで入手できる。
関連論文リスト
- Pareto Front Shape-Agnostic Pareto Set Learning in Multi-Objective Optimization [6.810571151954673]
既存の方法は、目的空間における選好ベクトルを決定空間における最適解にマッピングすることに依存する。
提案手法は, 事前知識を必要とせずに, パレート前面の任意の形状を処理し, パレート集合を学習することができる。
論文 参考訳(メタデータ) (2024-08-11T14:09:40Z) - Pareto Low-Rank Adapters: Efficient Multi-Task Learning with Preferences [49.14535254003683]
本稿では,機械学習におけるマルチタスクトレードオフに対処するパラメータ効率の高い新しい手法PaLoRAを紹介する。
実験の結果、PaLoRAは様々なデータセットで最先端のMTLとPFLのベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2024-07-10T21:25:51Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - A Hyper-Transformer model for Controllable Pareto Front Learning with
Split Feasibility Constraints [2.07180164747172]
SFCを用いたCPFL用超変圧器(Hyper-Trans)モデルを開発した。
計算実験において,Hyper-TransモデルによりMED誤差がHyper-MLPモデルよりも小さくなることを示す。
論文 参考訳(メタデータ) (2024-02-04T10:21:03Z) - Improving Pareto Front Learning via Multi-Sample Hypernetworks [4.129225533930966]
提案するPFLフレームワークであるPHN-HVIは,多種多様なトレードオフ選好から複数のソリューションを生成するハイパーネットワークである。
複数のMOO機械学習タスクの実験結果から,提案手法がベースラインを著しく上回ることが示された。
論文 参考訳(メタデータ) (2022-12-02T12:19:12Z) - Pareto Manifold Learning: Tackling multiple tasks via ensembles of
single-task models [50.33956216274694]
マルチタスク学習(MTL)では、タスクは、ソリューションへの最適化を導くのではなく、互いに達成したパフォーマンスを競い、制限することができる。
重み空間におけるアンサンブル手法であるTextitPareto Manifold Learningを提案する。
論文 参考訳(メタデータ) (2022-10-18T11:20:54Z) - Learning the Pareto Front with Hypernetworks [44.72371822514582]
機械学習では、多目的最適化(MOO)の問題が一般的である。
これらの問題には最適なソリューションのセットがあり、フロントの各ポイントは、衝突する可能性のある目標間の異なるトレードオフを表す。
近年のMOO法は、損失空間において特定の望まれる光線を標的にすることができるが、ほとんどのアプローチは依然として2つの重大な制限に直面している。
論文 参考訳(メタデータ) (2020-10-08T16:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。