論文の概要: ICLN: Input Convex Loss Network for Decision Focused Learning
- arxiv url: http://arxiv.org/abs/2403.01875v1
- Date: Mon, 4 Mar 2024 09:31:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 19:14:53.591655
- Title: ICLN: Input Convex Loss Network for Decision Focused Learning
- Title(参考訳): ICLN:Decision Focused Learningのための入力凸損失ネットワーク
- Authors: Haeun Jeon, Hyunglip Bae, Minsu Park, Chanyeong Kim, Woo Chang Kim
- Abstract要約: 不確実性の下での意思決定問題では、未知のパラメータを予測することは最適化部分とは独立であると考えられることが多い。
汎用DFLパラダイムで実装可能な新しいグローバルサロゲート損失であるICLN(Input Convex Loss Network)を提案する。
ICLNは入力凸ニューラルネットワークを通じてタスク損失を学習し、他の入力のグローバル構造を維持しながら、いくつかの入力に対して凸であることが保証される。
- 参考スコア(独自算出の注目度): 0.562479170374811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In decision-making problem under uncertainty, predicting unknown parameters
is often considered independent of the optimization part. Decision-focused
Learning (DFL) is a task-oriented framework to integrate prediction and
optimization by adapting predictive model to give better decision for the
corresponding task. Here, an inevitable challenge arises when computing
gradients of the optimal decision with respect to the parameters. Existing
researches cope this issue by smoothly reforming surrogate optimization or
construct surrogate loss function that mimic task loss. However, they are
applied to restricted optimization domain or build functions in a local manner
leading a large computational time. In this paper, we propose Input Convex Loss
Network (ICLN), a novel global surrogate loss which can be implemented in a
general DFL paradigm. ICLN learns task loss via Input Convex Neural Networks
which is guaranteed to be convex for some inputs, while keeping the global
structure for the other inputs. This enables ICLN to admit general DFL through
only a single surrogate loss without any sense for choosing appropriate
parametric forms. We confirm effectiveness and flexibility of ICLN by
evaluating our proposed model with three stochastic decision-making problems.
- Abstract(参考訳): 不確実性下の意思決定問題では、未知のパラメータの予測は最適化部分とは独立に考慮されることが多い。
決定中心学習(Decision- Focus Learning, DFL)は、予測モデルを適用することで予測と最適化を統合するタスク指向のフレームワークである。
ここでは、パラメータに関する最適決定の勾配を計算する際に必然的課題が発生する。
既存の研究は、タスク損失を模倣したサーロゲート最適化やサーロゲート損失関数の構築をスムーズに改善することでこの問題に対処している。
しかし、制限された最適化ドメインやビルド関数に対して、大きな計算時間を導く局所的な方法で適用される。
本稿では,一般的なdflパラダイムで実装可能な,新たなグローバルサーロゲート損失である入力凸損失ネットワーク(icln)を提案する。
ICLNは入力凸ニューラルネットワークを通じてタスク損失を学習し、他の入力のグローバル構造を維持しながら、いくつかの入力に対して凸であることが保証される。
これにより、ICLNは適切なパラメトリック形式を選択することなく、単一の代理損失のみを通して一般DFLを認めることができる。
ICLNの有効性と柔軟性を3つの確率的決定問題を用いて評価することで検証する。
関連論文リスト
- Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Two-Stage ML-Guided Decision Rules for Sequential Decision Making under Uncertainty [55.06411438416805]
SDMU (Sequential Decision Making Under Uncertainty) は、エネルギー、金融、サプライチェーンといった多くの領域において、ユビキタスである。
いくつかのSDMUは、自然にマルチステージ問題(MSP)としてモデル化されているが、結果として得られる最適化は、計算の観点からは明らかに困難である。
本稿では,2段階の一般決定規則(TS-GDR)を導入し,線形関数を超えて政策空間を一般化する手法を提案する。
TS-GDRの有効性は、TS-LDR(Two-Stage Deep Decision Rules)と呼ばれるディープリカレントニューラルネットワークを用いたインスタンス化によって実証される。
論文 参考訳(メタデータ) (2024-05-23T18:19:47Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - A Surrogate Objective Framework for Prediction+Optimization with Soft
Constraints [29.962390392493507]
SPO+や直接最適化のような決定に焦点をあてた予測手法が、このギャップを埋めるために提案されている。
本稿では,実世界の線形および半定値負の二次計画問題に対して,解析的に微分可能な主観的フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-22T17:09:57Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Backpropagation-Free Learning Method for Correlated Fuzzy Neural
Networks [2.1320960069210475]
本稿では,所望の前提部品の出力を推定し,段階的に学習する手法を提案する。
前提部品のパラメータを学習するために出力エラーをバックプロパゲートする必要はない。
実世界の時系列予測と回帰問題に適用できる。
論文 参考訳(メタデータ) (2020-11-25T20:56:05Z) - Extracting Optimal Solution Manifolds using Constrained Neural
Optimization [6.800113407368289]
制約付き最適化解アルゴリズムは点ベース解に制限される。
最適集合を近似として抽出する手法を提案する。
論文 参考訳(メタデータ) (2020-09-13T15:37:44Z) - Optimizing Wireless Systems Using Unsupervised and
Reinforced-Unsupervised Deep Learning [96.01176486957226]
無線ネットワークにおけるリソース割り当てとトランシーバーは、通常最適化問題の解決によって設計される。
本稿では,変数最適化と関数最適化の両問題を解くための教師なし・教師なし学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2020-01-03T11:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。