論文の概要: Learning (Local) Surrogate Loss Functions for Predict-Then-Optimize
Problems
- arxiv url: http://arxiv.org/abs/2203.16067v1
- Date: Wed, 30 Mar 2022 05:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 00:23:20.515816
- Title: Learning (Local) Surrogate Loss Functions for Predict-Then-Optimize
Problems
- Title(参考訳): 予測最適化問題の学習(局所)代理損失関数
- Authors: Sanket Shah, Bryan Wilder, Andrew Perrault, Milind Tambe
- Abstract要約: 決定焦点学習(Decision-Focused Learning, DFL)は、予測モデルを下流の最適化タスクに調整するためのパラダイムである。
本稿では,(a)最適化問題を解き,一般化可能なブラックボックスオラクルへのアクセスのみを必要とする忠実なタスク固有サロゲートを学習し,(b)勾配で凸し,容易に最適化できる手法を提案する。
- 参考スコア(独自算出の注目度): 58.954414264760956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision-Focused Learning (DFL) is a paradigm for tailoring a predictive
model to a downstream optimisation task that uses its predictions, so that it
can perform better on that specific task. The main technical challenge
associated with DFL is that it requires being able to differentiate through
$argmin$ operations to work. However, these $argmin$ optimisations are often
piecewise constant and, as a result, naively differentiating through them would
provide uninformative gradients. Past work has largely focused on getting
around this issue by handcrafting task-specific surrogates to the original
optimisation problem that provide informative gradients when differentiated
through. However, finding these surrogates can be challenging and the need to
handcraft surrogates for each new task limits the usability of DFL. In
addition, even after applying these relaxation techniques, there are no
guarantees that the resulting surrogates are convex and, as a result, training
a predictive model on them may lead to said model getting stuck in local
minimas.
In this paper, we provide an approach to learn faithful task-specific
surrogates which (a) only requires access to a black-box oracle that can solve
the optimisation problem and is thus generalizable, and (b) can be convex by
construction and so can be easily optimized over. To the best of our knowledge,
this is the first work on using learning to find good surrogates for DFL. We
evaluate our approach on a budget allocation problem from the literature and
find that our approach outperforms even the hand-crafted (non-convex) surrogate
loss proposed by the original paper. Taking a step back, we hope that the
generality and simplicity of our approach will help lower the barrier
associated with implementing DFL-based solutions in practice. To that end, we
are currently working on extending our experiments to more domains.
- Abstract(参考訳): 意思決定中心学習(decision-focus learning, dfl)は、予測モデルを下流の最適化タスクに合わせるためのパラダイムであり、その予測を利用して、特定のタスクでよりうまく機能するようにします。
DFLに関連する主な技術的課題は、$argmin$操作を通じて動作を区別できることである。
しかし、これらの$argmin$の最適化は、しばしば区分的に定数であり、その結果、それらの中をナイーブに微分することで、非形式的勾配をもたらす。
過去の研究は、タスク固有のサロゲートを元の最適化問題に手作りすることでこの問題を回避することに重点を置いてきた。
しかし、これらの代理ゲートを見つけることは困難であり、新しいタスクごとに代理ゲートを手作りする必要があるため、dflの使用性は制限される。
また, これらの緩和手法を適用したとしても, 結果として生じるサロゲートが凸性であることは保証されておらず, 結果として, 予測モデルをトレーニングすることで, そのモデルが局所的なミニマムに定着する可能性がある。
本稿では,忠実なタスク特化サロゲートを学ぶためのアプローチを提案する。
(a)最適化問題を解決できるブラックボックスのオラクルへのアクセスのみが必要で、それが一般化され、
(b)構成により凸化することができ、最適化が容易である。
私たちの知る限りでは、DFLの優れたサロゲートを見つけるために学習を使う最初の試みです。
文献から予算配分問題に対する我々のアプローチを評価し,本手法が原論文で提案した手作り(非凸)サロゲート損失よりも優れていることを見出した。
一歩後退して、私たちのアプローチの汎用性とシンプルさが、実際にDFLベースのソリューションを実装する際の障壁を低くすることを期待しています。
そのために、私たちは現在、実験をより多くのドメインに拡張に取り組んでいます。
関連論文リスト
- Solving Hidden Monotone Variational Inequalities with Surrogate Losses [23.565183680315073]
本稿では,変分不等式(VI)問題の解法として,ディープラーニングに適合する原理的な代理型アプローチを提案する。
提案手法は,予測ベルマン誤差の最小化と最小化に有効であることを示す。
深層強化学習では,より計算的かつ効率的なTD(0)の新たな変種を提案する。
論文 参考訳(メタデータ) (2024-11-07T22:42:08Z) - Directed Exploration in Reinforcement Learning from Linear Temporal Logic [59.707408697394534]
リニア時間論理(LTL)は強化学習におけるタスク仕様のための強力な言語である。
合成された報酬信号は基本的に疎結合であり,探索が困難であることを示す。
我々は、仕様をさらに活用し、それに対応するリミット決定性B"uchi Automaton(LDBA)をマルコフ報酬プロセスとしてキャストすることで、よりよい探索を実現することができることを示す。
論文 参考訳(メタデータ) (2024-08-18T14:25:44Z) - On Leveraging Large Language Models for Enhancing Entity Resolution: A Cost-efficient Approach [7.996010840316654]
本稿では,Large Language Models (LLMs) を用いた不確実性低減フレームワークを提案する。
LLMは、先進的な言語能力と、広範なデータサイエンスの専門知識を持たない人々に対して大きな利点をもたらす「従量制」モデルに便乗している。
我々は,本手法が効率的かつ効果的であることを示し,実世界のタスクに有望な応用を提供する。
論文 参考訳(メタデータ) (2024-01-07T09:06:58Z) - Score Function Gradient Estimation to Widen the Applicability of Decision-Focused Learning [17.962860438133312]
決定中心学習(DFL)パラダイムは、例えば後悔など、タスク損失を直接最小化するためのトレーニングによって制限を克服する。
そこで我々は,このような仮定をせずに,任意のタスク損失に作用するスコア関数推定とスムースに組み合わせた代替手法を提案する。
実験の結果、一般的に多くのエポックを必要とするが、専門的な手法と同等であり、特にソリューションの品質、スケーラビリティ、あるいはその両方の観点から、制約の不確実性に悩む問題に対して、特にうまく機能していることが示されている。
論文 参考訳(メタデータ) (2023-07-11T12:32:13Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - A new perspective on classification: optimally allocating limited
resources to uncertain tasks [4.169130102668252]
例えば、クレジットカード詐欺検出では、銀行は詐欺捜査チームに少数の取引しか割り当てることができない。
我々は、タスクの不確実性に対処するために分類を使うことは、利用可能な能力を考慮していないため、本質的には最適ではないと論じる。
本稿では,限られた能力しか持たない課題の期待利益を直接最適化することで,ランク付けのための学習を用いた新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-02-09T10:14:45Z) - Few-shot Quality-Diversity Optimization [50.337225556491774]
品質多様性(QD)の最適化は、強化学習における知覚的最小値とスパース報酬を扱う上で効果的なツールであることが示されている。
本稿では,タスク分布の例から,パラメータ空間の最適化によって得られる経路の情報を利用して,未知の環境でQD手法を初期化する場合,数発の適応が可能であることを示す。
ロボット操作とナビゲーションベンチマークを用いて、疎密な報酬設定と密集した報酬設定の両方で実施された実験は、これらの環境でのQD最適化に必要な世代数を著しく削減することを示している。
論文 参考訳(メタデータ) (2021-09-14T17:12:20Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。