論文の概要: GaussianPSL: A novel framework based on Gaussian Splatting for exploring the Pareto frontier in multi-criteria optimization
- arxiv url: http://arxiv.org/abs/2509.17889v1
- Date: Mon, 22 Sep 2025 15:21:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.459586
- Title: GaussianPSL: A novel framework based on Gaussian Splatting for exploring the Pareto frontier in multi-criteria optimization
- Title(参考訳): GaussianPSL:多基準最適化におけるパレートフロンティア探索のためのガウススプラッティングに基づく新しいフレームワーク
- Authors: Phuong Mai Dinh, Van-Nam Huynh,
- Abstract要約: 本稿では,多目的最適化を用いた非目的多様性学習のための新しいアプローチを提案する。
本手法は各領域の局所的特徴を統合し,新たなアグリゲータフレームワークによって統合する。
実験の結果,本手法は非目的多様性学習において標準PSLモデルよりも優れていた。
この作業は、挑戦的な現実世界のベンチマークの下で、効果的でスケーラブルな新たな方向性を提供する。
- 参考スコア(独自算出の注目度): 1.325953054381901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-objective optimization (MOO) is essential for solving complex real-world problems involving multiple conflicting objectives. However, many practical applications - including engineering design, autonomous systems, and machine learning - often yield non-convex, degenerate, or discontinuous Pareto frontiers, which involve traditional scalarization and Pareto Set Learning (PSL) methods that struggle to approximate accurately. Existing PSL approaches perform well on convex fronts but tend to fail in capturing the diversity and structure of irregular Pareto sets commonly observed in real-world scenarios. In this paper, we propose Gaussian-PSL, a novel framework that integrates Gaussian Splatting into PSL to address the challenges posed by non-convex Pareto frontiers. Our method dynamically partitions the preference vector space, enabling simple MLP networks to learn localized features within each region, which are then integrated by an additional MLP aggregator. This partition-aware strategy enhances both exploration and convergence, reduces sensi- tivity to initialization, and improves robustness against local optima. We first provide the mathematical formulation for controllable Pareto set learning using Gaussian Splat- ting. Then, we introduce the Gaussian-PSL architecture and evaluate its performance on synthetic and real-world multi-objective benchmarks. Experimental results demonstrate that our approach outperforms standard PSL models in learning irregular Pareto fronts while maintaining computational efficiency and model simplicity. This work offers a new direction for effective and scalable MOO under challenging frontier geometries.
- Abstract(参考訳): 多目的最適化(MOO)は、複数の競合する目的を含む複雑な現実世界問題の解決に不可欠である。
しかし、エンジニアリング設計、自律システム、機械学習を含む多くの実践的応用は、しばしば、従来のスカラー化と正確な近似に苦労するPareto Set Learning(PSL)メソッドを含む、非凸、縮退、不連続のParetoフロンティアを生み出す。
既存のPSLアプローチは凸面においてうまく機能するが、現実のシナリオでよく見られる不規則なパレート集合の多様性と構造を捉えることに失敗する傾向がある。
本稿では,非凸パレートフロンティアの課題に対処するため,ガウシアンスプラッティングをPSLに統合する新しいフレームワークであるガウシアンPSLを提案する。
提案手法は好みベクトル空間を動的に分割し,各領域内の局所的特徴を学習し,追加のMLPアグリゲータによって統合する。
この分割対応戦略は、探索と収束の両面を強化し、初期化に対するセンシ-ティリティを低減し、局所最適性に対する堅牢性を向上させる。
まず,ガウスSplat-ting を用いた制御可能なパレート集合学習の数学的定式化について述べる。
次に、ガウスPSLアーキテクチャを導入し、合成および実世界の多目的ベンチマークの性能を評価する。
実験の結果,本手法は計算効率とモデル単純さを維持しつつ,不規則なParetoフロントの学習において標準PSLモデルよりも優れていた。
この作業は、挑戦的なフロンティアジオメトリの下で、効果的でスケーラブルなMOOのための新しい方向を提供する。
関連論文リスト
- LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.83882149157548]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - Alignment of large language models with constrained learning [93.2264691508005]
本研究では,制約付きアライメント問題に対する最適大言語モデル (LLM) ポリシーの計算問題について検討する。
我々はラグランジアン双対性を用いて、ラグランジアンによるポリシーの更新と双対降下による双対変数の更新を交互に交互に行う反復的双対ベースアライメント法を開発する。
論文 参考訳(メタデータ) (2025-05-26T01:04:56Z) - Improving Pareto Set Learning for Expensive Multi-objective Optimization via Stein Variational Hypernetworks [4.124390946636935]
重大多目的最適化問題(EMOP)は、目的関数の評価にコストがかかる実世界のシナリオでは一般的である。
本稿では,Stein Variational Gradient Descent (SVGD) を Hypernetworks に統合した SVH-PSL という新しい手法を提案する。
本手法は, 解空間を滑らかにするために粒子を集合的に移動させることにより, フラグメント化サロゲートモデルと擬似局所最適化の問題に対処する。
論文 参考訳(メタデータ) (2024-12-23T06:05:45Z) - Context-aware Diversity Enhancement for Neural Multi-Objective Combinatorial Optimization [19.631213689157995]
マルチオブジェクト最適化(MOCO)問題は、様々な現実世界のアプリケーションで広く用いられている。
我々はCDEというコンテキスト対応の多様性向上アルゴリズムを提案する。
提案したCDEは,文脈情報を効果的かつ効率的に把握し,多様性の向上をもたらす。
論文 参考訳(メタデータ) (2024-05-14T13:42:19Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Exact Pareto Optimal Search for Multi-Task Learning and Multi-Criteria
Decision-Making [10.914300987810128]
EPO 探索は線形収束速度で EPO 解に収束することを示す。
我々は, PFを後部MCDMで近似するPESA-EPOと, 対話型MCDMで誘導するGP-EPOという新しいアルゴリズムを開発した。
EPO検索は変数数と線形にスケールし、ディープEコマースネットワークに使用することができる。
論文 参考訳(メタデータ) (2021-08-02T02:13:21Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。