論文の概要: Pareto-NRPA: A Novel Monte-Carlo Search Algorithm for Multi-Objective Optimization
- arxiv url: http://arxiv.org/abs/2507.19109v1
- Date: Fri, 25 Jul 2025 09:46:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.903594
- Title: Pareto-NRPA: A Novel Monte-Carlo Search Algorithm for Multi-Objective Optimization
- Title(参考訳): Pareto-NRPA:多目的最適化のためのモンテカルロ探索アルゴリズム
- Authors: Noé Lallouet, Tristan Cazenave, Cyrille Enderli,
- Abstract要約: 離散探索空間上での多目的最適化問題に対するモンテカルロアルゴリズムを提案する。
このアルゴリズムは一連のポリシーを使って、ソリューション空間の異なる領域を同時に探索する。
我々の知る限り、この研究は多目的設定へのNRPAの最初の適応を構成する。
- 参考スコア(独自算出の注目度): 3.435169201271934
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce Pareto-NRPA, a new Monte-Carlo algorithm designed for multi-objective optimization problems over discrete search spaces. Extending the Nested Rollout Policy Adaptation (NRPA) algorithm originally formulated for single-objective problems, Pareto-NRPA generalizes the nested search and policy update mechanism to multi-objective optimization. The algorithm uses a set of policies to concurrently explore different regions of the solution space and maintains non-dominated fronts at each level of search. Policy adaptation is performed with respect to the diversity and isolation of sequences within the Pareto front. We benchmark Pareto-NRPA on two classes of problems: a novel bi-objective variant of the Traveling Salesman Problem with Time Windows problem (MO-TSPTW), and a neural architecture search task on well-known benchmarks. Results demonstrate that Pareto-NRPA achieves competitive performance against state-of-the-art multi-objective algorithms, both in terms of convergence and diversity of solutions. Particularly, Pareto-NRPA strongly outperforms state-of-the-art evolutionary multi-objective algorithms on constrained search spaces. To our knowledge, this work constitutes the first adaptation of NRPA to the multi-objective setting.
- Abstract(参考訳): 離散探索空間上での多目的最適化問題に対する新しいモンテカルロアルゴリズムPareto-NRPAを提案する。
Nested Rollout Policy Adaptation (NRPA)アルゴリズムを拡張したPareto-NRPAは、ネストされた検索とポリシー更新機構を多目的最適化に一般化する。
このアルゴリズムは、一連のポリシーを用いて、ソリューション空間の異なる領域を同時に探索し、各レベルの検索において非支配的なフロントを維持する。
政策適応は、パレートフロントにおけるシーケンスの多様性と分離に関して実施される。
そこで我々はPareto-NRPAを,旅行セールスマン問題と時間Windows問題(MO-TSPTW)の新たな二目的変種と,よく知られたベンチマーク上のニューラルネットワーク探索タスクの2つのクラスでベンチマークした。
その結果,Pareto-NRPAは,解の収束と多様性の両面から,最先端の多目的アルゴリズムと競合する性能を示した。
特にPareto-NRPAは、制約付き検索空間における最先端の進化的多目的アルゴリズムよりも優れている。
我々の知る限り、この研究は多目的設定へのNRPAの最初の適応を構成する。
関連論文リスト
- MOANA: Multi-Objective Ant Nesting Algorithm for Optimization Problems [21.80971564725773]
Multi-Objective Ant Nesting Algorithm (MOANA)は、Ant Nesting Evolutionary Algorithm (ANA)の新たな拡張である。
MOANAは、多目的シナリオにおけるスケーラビリティと多様性を改善することによって、従来の進化的アルゴリズムの重要な制限に対処する。
MOANAの溶接ビーム設計のような実世界のエンジニアリング最適化への適用性は、幅広い最適解を生成する能力を示している。
論文 参考訳(メタデータ) (2024-11-08T18:31:53Z) - An accelerate Prediction Strategy for Dynamic Multi-Objective Optimization [7.272641346606365]
本稿では,進化的アルゴリズムフレームワークにおける予測戦略の高速化のための新しいアプローチを提案する。
本稿では,アルゴリズムの探索動作を予測・調整するために,二階微分を組み込んだ適応予測戦略を提案する。
標準DMOPのベンチマーク問題を用いて,提案手法の性能を4つの最先端アルゴリズムと比較した。
論文 参考訳(メタデータ) (2024-10-08T08:13:49Z) - Local Optimization Achieves Global Optimality in Multi-Agent
Reinforcement Learning [139.53668999720605]
本稿では,各エージェントのローカルポリシーをバニラPPOと同様に更新するマルチエージェントPPOアルゴリズムを提案する。
マルコフゲームにおける標準正則条件と問題依存量により、我々のアルゴリズムはサブリニアレートで大域的最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2023-05-08T16:20:03Z) - OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - Multi-Objective Policy Gradients with Topological Constraints [108.10241442630289]
本稿では, PPOアルゴリズムの簡単な拡張により, TMDPにおけるポリシー勾配に対する新しいアルゴリズムを提案する。
シミュレーションと実ロボットの両方の目的を任意に並べた実世界の多目的ナビゲーション問題に対して,これを実証する。
論文 参考訳(メタデータ) (2022-09-15T07:22:58Z) - ARES: An Efficient Algorithm with Recurrent Evaluation and Sampling-Driven Inference for Maximum Independent Set [48.57120672468062]
本稿では、2つの革新的な手法を取り入れたMIS問題に対する効率的なアルゴリズムを提案する。
提案アルゴリズムは、解の質、計算効率、安定性の点で最先端のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2022-08-16T14:39:38Z) - A Simple Evolutionary Algorithm for Multi-modal Multi-objective
Optimization [0.0]
マルチモーダル・多目的最適化問題(MMOP)を解くための定常進化アルゴリズムを提案する。
本報告では,1000関数評価の低計算予算を用いて,様々なテストスイートから得られた21個のMMOPの性能について報告する。
論文 参考訳(メタデータ) (2022-01-18T03:31:11Z) - A novel multiobjective evolutionary algorithm based on decomposition and
multi-reference points strategy [14.102326122777475]
分解に基づく多目的進化アルゴリズム(MOEA/D)は、多目的最適化問題(MOP)を解く上で、極めて有望なアプローチであると考えられている。
本稿では,よく知られたPascoletti-Serafiniスキャラライゼーション法とマルチ参照ポイントの新たな戦略により,MOEA/Dアルゴリズムの改良を提案する。
論文 参考訳(メタデータ) (2021-10-27T02:07:08Z) - Result Diversification by Multi-objective Evolutionary Algorithms with
Theoretical Guarantees [94.72461292387146]
両目的探索問題として結果の多様化問題を再構成し,多目的進化アルゴリズム(EA)を用いて解くことを提案する。
GSEMOが最適時間近似比1/2$を達成できることを理論的に証明する。
目的関数が動的に変化すると、GSEMOはこの近似比をランニングタイムで維持することができ、Borodinらによって提案されたオープンな問題に対処する。
論文 参考訳(メタデータ) (2021-10-18T14:00:22Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Deep Reinforcement Learning for Field Development Optimization [0.0]
本研究の目的は,畳み込みニューラルネットワーク(CNN)深部強化学習(DRL)アルゴリズムをフィールド開発最適化問題に適用することである。
近似ポリシー最適化 (PPO) アルゴリズムは2つのCNNアーキテクチャで様々な層と構成を持つ。
両ネットワークは、ハイブリッド粒子群最適化(PSO-MADS)アルゴリズムと比較して満足な結果をもたらすポリシーを得た。
論文 参考訳(メタデータ) (2020-08-05T06:26:13Z) - Decomposition in Decision and Objective Space for Multi-Modal
Multi-Objective Optimization [15.681236469530397]
多モード多目的最適化問題(MMMOP)はパレート最適集合内に複数の部分集合を持つ。
一般的な多目的進化的アルゴリズムは、複数の解部分集合を探索するために純粋に設計されていないが、MMMOP向けに設計されたアルゴリズムは、目的空間における劣化した性能を示す。
これは、MMMOPに対処するためのより良いアルゴリズムの設計を動機付けている。
論文 参考訳(メタデータ) (2020-06-04T03:18:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。