論文の概要: ICLN: Input Convex Loss Network for Decision Focused Learning
- arxiv url: http://arxiv.org/abs/2403.01875v1
- Date: Mon, 4 Mar 2024 09:31:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 19:14:53.591655
- Title: ICLN: Input Convex Loss Network for Decision Focused Learning
- Title(参考訳): ICLN:Decision Focused Learningのための入力凸損失ネットワーク
- Authors: Haeun Jeon, Hyunglip Bae, Minsu Park, Chanyeong Kim, Woo Chang Kim
- Abstract要約: 不確実性の下での意思決定問題では、未知のパラメータを予測することは最適化部分とは独立であると考えられることが多い。
汎用DFLパラダイムで実装可能な新しいグローバルサロゲート損失であるICLN(Input Convex Loss Network)を提案する。
ICLNは入力凸ニューラルネットワークを通じてタスク損失を学習し、他の入力のグローバル構造を維持しながら、いくつかの入力に対して凸であることが保証される。
- 参考スコア(独自算出の注目度): 0.562479170374811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In decision-making problem under uncertainty, predicting unknown parameters
is often considered independent of the optimization part. Decision-focused
Learning (DFL) is a task-oriented framework to integrate prediction and
optimization by adapting predictive model to give better decision for the
corresponding task. Here, an inevitable challenge arises when computing
gradients of the optimal decision with respect to the parameters. Existing
researches cope this issue by smoothly reforming surrogate optimization or
construct surrogate loss function that mimic task loss. However, they are
applied to restricted optimization domain or build functions in a local manner
leading a large computational time. In this paper, we propose Input Convex Loss
Network (ICLN), a novel global surrogate loss which can be implemented in a
general DFL paradigm. ICLN learns task loss via Input Convex Neural Networks
which is guaranteed to be convex for some inputs, while keeping the global
structure for the other inputs. This enables ICLN to admit general DFL through
only a single surrogate loss without any sense for choosing appropriate
parametric forms. We confirm effectiveness and flexibility of ICLN by
evaluating our proposed model with three stochastic decision-making problems.
- Abstract(参考訳): 不確実性下の意思決定問題では、未知のパラメータの予測は最適化部分とは独立に考慮されることが多い。
決定中心学習(Decision- Focus Learning, DFL)は、予測モデルを適用することで予測と最適化を統合するタスク指向のフレームワークである。
ここでは、パラメータに関する最適決定の勾配を計算する際に必然的課題が発生する。
既存の研究は、タスク損失を模倣したサーロゲート最適化やサーロゲート損失関数の構築をスムーズに改善することでこの問題に対処している。
しかし、制限された最適化ドメインやビルド関数に対して、大きな計算時間を導く局所的な方法で適用される。
本稿では,一般的なdflパラダイムで実装可能な,新たなグローバルサーロゲート損失である入力凸損失ネットワーク(icln)を提案する。
ICLNは入力凸ニューラルネットワークを通じてタスク損失を学習し、他の入力のグローバル構造を維持しながら、いくつかの入力に対して凸であることが保証される。
これにより、ICLNは適切なパラメトリック形式を選択することなく、単一の代理損失のみを通して一般DFLを認めることができる。
ICLNの有効性と柔軟性を3つの確率的決定問題を用いて評価することで検証する。
関連論文リスト
- End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - QCQP-Net: Reliably Learning Feasible Alternating Current Optimal Power
Flow Solutions Under Constraints [4.1920378271058425]
本稿では,ACOPFネットワークに計算効率よく入力をマッピングする新しい計算学習ACOPFを提案する。
提案手法は,既存のアプローチが失敗する状況において,優れた実現可能性率とコストを達成できることをシミュレーションにより示す。
論文 参考訳(メタデータ) (2024-01-11T20:17:44Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Training Latency Minimization for Model-Splitting Allowed Federated Edge
Learning [16.8717239856441]
我々は,深層ニューラルネットワーク(DNN)の訓練において,クライアントが直面する計算能力の不足を軽減するためのモデル分割許容FL(SFL)フレームワークを提案する。
同期したグローバルアップデート設定では、グローバルトレーニングを完了するためのレイテンシは、クライアントがローカルトレーニングセッションを完了するための最大レイテンシによって決定される。
この混合整数非線形計画問題の解法として,AIモデルのカット層と他のパラメータの量的関係に適合する回帰法を提案し,TLMPを連続的な問題に変換する。
論文 参考訳(メタデータ) (2023-07-21T12:26:42Z) - Score Function Gradient Estimation to Widen the Applicability of
Decision-Focused Learning [17.494540497438955]
決定中心学習(DFL)は、タスク損失を直接最小化し、MLモデルをトレーニングすることを目的として、最近提案されたパラダイムである。
本研究では,パラメータ上でのテキスト分布の予測とスコア関数勾配推定(SFGE)を用いて,予測モデルに対する決定中心の更新を計算することにより,これらの制約に対処する。
実験の結果,(1)目的関数と制約の両方で発生する予測に対処し,(2)2段階最適化問題に効果的に取り組むことができることがわかった。
論文 参考訳(メタデータ) (2023-07-11T12:32:13Z) - Power Control with QoS Guarantees: A Differentiable Projection-based
Unsupervised Learning Framework [14.518558523319518]
NPハード無線リソース割り当て問題を解決する潜在的なソリューションとして、ディープニューラルネットワーク(DNN)が登場している。
マルチユーザチャネルにおける古典的電力制御問題を解決するために,教師なし学習フレームワークを提案する。
提案手法は,データレートを向上するだけでなく,既存の計算に比べて制約違反の確率をゼロにすることを示す。
論文 参考訳(メタデータ) (2023-05-31T14:11:51Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Optimizing Wireless Systems Using Unsupervised and
Reinforced-Unsupervised Deep Learning [96.01176486957226]
無線ネットワークにおけるリソース割り当てとトランシーバーは、通常最適化問題の解決によって設計される。
本稿では,変数最適化と関数最適化の両問題を解くための教師なし・教師なし学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2020-01-03T11:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。