論文の概要: Learning (Local) Surrogate Loss Functions for Predict-Then-Optimize
Problems
- arxiv url: http://arxiv.org/abs/2203.16067v1
- Date: Wed, 30 Mar 2022 05:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 00:23:20.515816
- Title: Learning (Local) Surrogate Loss Functions for Predict-Then-Optimize
Problems
- Title(参考訳): 予測最適化問題の学習(局所)代理損失関数
- Authors: Sanket Shah, Bryan Wilder, Andrew Perrault, Milind Tambe
- Abstract要約: 決定焦点学習(Decision-Focused Learning, DFL)は、予測モデルを下流の最適化タスクに調整するためのパラダイムである。
本稿では,(a)最適化問題を解き,一般化可能なブラックボックスオラクルへのアクセスのみを必要とする忠実なタスク固有サロゲートを学習し,(b)勾配で凸し,容易に最適化できる手法を提案する。
- 参考スコア(独自算出の注目度): 58.954414264760956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision-Focused Learning (DFL) is a paradigm for tailoring a predictive
model to a downstream optimisation task that uses its predictions, so that it
can perform better on that specific task. The main technical challenge
associated with DFL is that it requires being able to differentiate through
$argmin$ operations to work. However, these $argmin$ optimisations are often
piecewise constant and, as a result, naively differentiating through them would
provide uninformative gradients. Past work has largely focused on getting
around this issue by handcrafting task-specific surrogates to the original
optimisation problem that provide informative gradients when differentiated
through. However, finding these surrogates can be challenging and the need to
handcraft surrogates for each new task limits the usability of DFL. In
addition, even after applying these relaxation techniques, there are no
guarantees that the resulting surrogates are convex and, as a result, training
a predictive model on them may lead to said model getting stuck in local
minimas.
In this paper, we provide an approach to learn faithful task-specific
surrogates which (a) only requires access to a black-box oracle that can solve
the optimisation problem and is thus generalizable, and (b) can be convex by
construction and so can be easily optimized over. To the best of our knowledge,
this is the first work on using learning to find good surrogates for DFL. We
evaluate our approach on a budget allocation problem from the literature and
find that our approach outperforms even the hand-crafted (non-convex) surrogate
loss proposed by the original paper. Taking a step back, we hope that the
generality and simplicity of our approach will help lower the barrier
associated with implementing DFL-based solutions in practice. To that end, we
are currently working on extending our experiments to more domains.
- Abstract(参考訳): 意思決定中心学習(decision-focus learning, dfl)は、予測モデルを下流の最適化タスクに合わせるためのパラダイムであり、その予測を利用して、特定のタスクでよりうまく機能するようにします。
DFLに関連する主な技術的課題は、$argmin$操作を通じて動作を区別できることである。
しかし、これらの$argmin$の最適化は、しばしば区分的に定数であり、その結果、それらの中をナイーブに微分することで、非形式的勾配をもたらす。
過去の研究は、タスク固有のサロゲートを元の最適化問題に手作りすることでこの問題を回避することに重点を置いてきた。
しかし、これらの代理ゲートを見つけることは困難であり、新しいタスクごとに代理ゲートを手作りする必要があるため、dflの使用性は制限される。
また, これらの緩和手法を適用したとしても, 結果として生じるサロゲートが凸性であることは保証されておらず, 結果として, 予測モデルをトレーニングすることで, そのモデルが局所的なミニマムに定着する可能性がある。
本稿では,忠実なタスク特化サロゲートを学ぶためのアプローチを提案する。
(a)最適化問題を解決できるブラックボックスのオラクルへのアクセスのみが必要で、それが一般化され、
(b)構成により凸化することができ、最適化が容易である。
私たちの知る限りでは、DFLの優れたサロゲートを見つけるために学習を使う最初の試みです。
文献から予算配分問題に対する我々のアプローチを評価し,本手法が原論文で提案した手作り(非凸)サロゲート損失よりも優れていることを見出した。
一歩後退して、私たちのアプローチの汎用性とシンプルさが、実際にDFLベースのソリューションを実装する際の障壁を低くすることを期待しています。
そのために、私たちは現在、実験をより多くのドメインに拡張に取り組んでいます。
関連論文リスト
- Score Function Gradient Estimation to Widen the Applicability of
Decision-Focused Learning [17.494540497438955]
決定中心学習(DFL)は、タスク損失を直接最小化し、MLモデルをトレーニングすることを目的として、最近提案されたパラダイムである。
本研究では,パラメータ上でのテキスト分布の予測とスコア関数勾配推定(SFGE)を用いて,予測モデルに対する決定中心の更新を計算することにより,これらの制約に対処する。
実験の結果,(1)目的関数と制約の両方で発生する予測に対処し,(2)2段階最適化問題に効果的に取り組むことができることがわかった。
論文 参考訳(メタデータ) (2023-07-11T12:32:13Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Rich Feature Construction for the Optimization-Generalization Dilemma [18.721567020497968]
我々は、モデルで使用できる潜在的に有用な機能のパレットを含むリッチな表現(RFC)を構築する。
RFCは、6つのOoDメソッドが挑戦的な不変トレーニングベンチマークで最高のパフォーマンスを達成するのを一貫して支援します。
現実的な Camelyon17 タスクでは,OoD と OoD の両手法が,従来の計算可能な結果に対して少なくとも 5% 以上の性能を発揮する。
論文 参考訳(メタデータ) (2022-03-24T20:39:33Z) - A new perspective on classification: optimally allocating limited
resources to uncertain tasks [4.169130102668252]
例えば、クレジットカード詐欺検出では、銀行は詐欺捜査チームに少数の取引しか割り当てることができない。
我々は、タスクの不確実性に対処するために分類を使うことは、利用可能な能力を考慮していないため、本質的には最適ではないと論じる。
本稿では,限られた能力しか持たない課題の期待利益を直接最適化することで,ランク付けのための学習を用いた新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-02-09T10:14:45Z) - Few-shot Quality-Diversity Optimization [50.337225556491774]
品質多様性(QD)の最適化は、強化学習における知覚的最小値とスパース報酬を扱う上で効果的なツールであることが示されている。
本稿では,タスク分布の例から,パラメータ空間の最適化によって得られる経路の情報を利用して,未知の環境でQD手法を初期化する場合,数発の適応が可能であることを示す。
ロボット操作とナビゲーションベンチマークを用いて、疎密な報酬設定と密集した報酬設定の両方で実施された実験は、これらの環境でのQD最適化に必要な世代数を著しく削減することを示している。
論文 参考訳(メタデータ) (2021-09-14T17:12:20Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Sequential Transfer in Reinforcement Learning with a Generative Model [48.40219742217783]
本稿では,従来の課題から知識を移譲することで,新たな課題を学習する際のサンプルの複雑さを軽減する方法について述べる。
この種の事前知識を使用することのメリットを明確に示すために,PAC境界のサンプル複雑性を導出する。
簡単なシミュレートされた領域における理論的な発見を実証的に検証する。
論文 参考訳(メタデータ) (2020-07-01T19:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。