論文の概要: Monotone Optimisation with Learned Projections
- arxiv url: http://arxiv.org/abs/2601.20983v1
- Date: Wed, 28 Jan 2026 19:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.401729
- Title: Monotone Optimisation with Learned Projections
- Title(参考訳): 学習した投影による単調な最適化
- Authors: Ahmed Rashwan, Keith Briggs, Chris Budd, Lisa Kreusser,
- Abstract要約: モノトーン最適化問題は、Polyblock Outer Approximation (POA)アルゴリズムのような特殊な大域的解法を許容する。
本稿では,学習モデルをPOAに統合するアルゴリズム認識学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monotone optimisation problems admit specialised global solvers such as the Polyblock Outer Approximation (POA) algorithm, but these methods typically require explicit objective and constraint functions. In many applications, these functions are only available through data, making POA difficult to apply directly. We introduce an algorithm-aware learning approach that integrates learned models into POA by directly predicting its projection primitive via the radial inverse, avoiding the costly bisection procedure used in standard POA. We propose Homogeneous-Monotone Radial Inverse (HM-RI) networks, structured neural architectures that enforce key monotonicity and homogeneity properties, enabling fast projection estimation. We provide a theoretical characterisation of radial inverse functions and show that, under mild structural conditions, a HM-RI predictor corresponds to the radial inverse of a valid set of monotone constraints. To reduce training overhead, we further develop relaxed monotonicity conditions that remain compatible with POA. Across multiple monotone optimisation benchmarks (indefinite quadratic programming, multiplicative programming, and transmit power optimisation), our approach yields substantial speed-ups in comparison to direct function estimation while maintaining strong solution quality, outperforming baselines that do not exploit monotonic structure.
- Abstract(参考訳): モノトーン最適化問題は、Polyblock Outer Approximation (POA)アルゴリズムのような特殊な大域的解法を許容するが、これらの手法は通常、明示的な目的関数と制約関数を必要とする。
多くのアプリケーションでは、これらの機能はデータを通してのみ利用可能であり、POAを直接適用するのは困難である。
本稿では,学習モデルをPOAに組み込むアルゴリズム認識学習手法を提案する。
本稿では,鍵単調性および均一性を強制し,高速な予測推定を可能にする階層型ニューラルアーキテクチャであるHM-RIネットワークを提案する。
我々は、放射逆関数の理論的特徴付けを行い、穏やかな構造条件下では、HM-RI予測器が有効な単調制約の集合の放射逆に対応することを示す。
トレーニングのオーバーヘッドを軽減するため,POAとの相性を維持した緩和単調条件をさらに発展させる。
複数のモノトーン最適化ベンチマーク(無限二次計画法、乗算計画法、送信電力最適化法)において,本手法は,強い解品質を維持しつつも,直接関数推定と比較して大幅に高速化され,単調構造を生かさないベースラインの性能が向上する。
関連論文リスト
- Alternating Minimization Schemes for Computing Rate-Distortion-Perception Functions with $f$-Divergence Perception Constraints [9.788112471288057]
離散メモリレスソースに対するRDPF(Ralse-Distortion-Perception Function)の計算について検討した。
凸プログラミング問題に対する最適パラメトリック解を特徴付ける。
必要かつ十分な条件を導出することにより、両スキームがグローバルな最適解を保証できることが示される。
論文 参考訳(メタデータ) (2024-08-27T12:50:12Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Asymptotically Unbiased Instance-wise Regularized Partial AUC
Optimization: Theory and Algorithm [101.44676036551537]
One-way partial AUC (OPAUC) と Two-way partial AUC (TPAUC) はバイナリ分類器の平均性能を測定する。
既存の手法のほとんどはPAUCをほぼ最適化するしかなく、制御不能なバイアスにつながる。
本稿では,分散ロバスト最適化AUCによるPAUC問題の簡易化について述べる。
論文 参考訳(メタデータ) (2022-10-08T08:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。