論文の概要: Outage Performance and Novel Loss Function for an ML-Assisted Resource
Allocation: An Exact Analytical Framework
- arxiv url: http://arxiv.org/abs/2305.09739v2
- Date: Sat, 18 Nov 2023 09:08:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 19:34:22.749869
- Title: Outage Performance and Novel Loss Function for an ML-Assisted Resource
Allocation: An Exact Analytical Framework
- Title(参考訳): ML支援資源配分のための機能停止と新たな損失関数:厳密な分析フレームワーク
- Authors: Nidhi Simmons, David E Simmons, Michel Daoud Yacoub
- Abstract要約: 本稿では,MLベースのリソース割り当てシステムの停止確率を最小限に抑えるために,新たな損失関数を提案する。
MLバイナリ分類予測器は、確立された停止基準を満たすリソースの選択を支援する。
- 参考スコア(独自算出の注目度): 2.1397655110395752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel loss function to minimize the outage probability of an
ML-based resource allocation system. A single-user multi-resource greedy
allocation strategy constitutes our application scenario, for which an ML
binary classification predictor assists in selecting a resource satisfying the
established outage criterium. While other resource allocation policies may be
suitable, they are not the focus of our study. Instead, our primary emphasis is
on theoretically developing this loss function and leveraging it to train an ML
model to address the outage probability challenge. With no access to future
channel state information, this predictor foresees each resource's likely
future outage status. When the predictor encounters a resource it believes will
be satisfactory, it allocates it to the user. Our main result establishes exact
and asymptotic expressions for this system's outage probability. These
expressions reveal that focusing solely on the optimization of the per-resource
outage probability conditioned on the ML predictor recommending resource
allocation (a strategy that appears to be most appropriate) may produce
inadequate predictors that reject every resource. They also reveal that
focusing on standard metrics, like precision, false-positive rate, or recall,
may not produce optimal predictors. With our result, we formulate a
theoretically optimal, differentiable loss function to train our predictor. We
then compare predictors trained using this and traditional loss functions
namely, binary cross-entropy (BCE), mean squared error (MSE), and mean absolute
error (MAE). In all scenarios, predictors trained using our novel loss function
provide superior outage probability performance. Moreover, in some cases, our
loss function outperforms predictors trained with BCE, MAE, and MSE by multiple
orders of magnitude.
- Abstract(参考訳): 本稿では,mlに基づくリソース割当システムの停止確率を最小化する新しい損失関数を提案する。
mlバイナリ分類予測器が確立した停止基準を満たすリソース選択を支援するアプリケーションシナリオは,単一ユーザによる複数リソース割り当て戦略を構成する。
他の資源配分政策は適当かもしれないが、これらは我々の研究の焦点ではない。
その代わり、この損失関数を理論的に開発し、mlモデルをトレーニングして停止確率問題に対処することに重点を置いています。
将来のチャネル状態情報にアクセスできないため、この予測器は各リソースの将来の停止状態を予測する。
予測者が満足できると信じているリソースに遭遇すると、それをユーザに割り当てる。
本研究の主な成果は,システム停止確率の正確かつ漸近的な表現を確立することである。
これらの表現は、リソース割り当て(最も適切と思われる戦略)を推奨するML予測器に条件付きリソースごとの停止確率の最適化にのみ焦点をあてることによって、すべてのリソースを拒絶する不適切な予測器を生成する可能性があることを示している。
さらに彼らは、精度、偽陽性率、リコールといった標準メトリクスにフォーカスしても、最適な予測値が得られないことも明らかにした。
その結果、理論上最適で微分可能な損失関数を定式化し、予測器を訓練する。
次に,従来の損失関数である二元クロスエントロピー(bce),平均二乗誤差(mse),平均絶対誤差(mae)を用いて学習した予測器を比較した。
すべてのシナリオにおいて、新しい損失関数を用いてトレーニングされた予測器は、優れた停止確率性能を提供する。
さらに, 損失関数はBCE, MAE, MSEで訓練した予測器よりも, 複数の順序で優れる場合もある。
関連論文リスト
- Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能評価のためのより効率的な指標として、事前学習損失に焦点を当てている。
我々は、データソース間のFLOPに基づいて、ドメイン固有の事前学習損失を予測するために、電力法解析関数を拡張した。
我々は2層ニューラルネットワークを用いて、複数のドメイン固有の損失と下流性能の非線形関係をモデル化する。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - Enforcing Equity in Neural Climate Emulators [0.0]
ニューラルネットワークエミュレータを予測の不平等な品質で罰するカスタム損失関数を提案する。
損失関数は、ニューラルネットワークを向かわせるために、特定の株式の定義を規定しない。
以上の結果から, 損失関数でトレーニングしたニューラル気候エミュレータの方が, より公平な予測が可能であることが示唆された。
論文 参考訳(メタデータ) (2024-06-28T03:47:54Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Distribution-free risk assessment of regression-based machine learning
algorithms [6.507711025292814]
我々は回帰アルゴリズムとモデル予測の周囲に定義された区間内に存在する真のラベルの確率を計算するリスク評価タスクに焦点をあてる。
そこで,本研究では,正のラベルを所定の確率で含むことが保証される予測区間を提供する共形予測手法を用いてリスク評価問題を解決する。
論文 参考訳(メタデータ) (2023-10-05T13:57:24Z) - Probable Domain Generalization via Quantile Risk Minimization [90.15831047587302]
ドメインの一般化は、目に見えないテスト分布でうまく機能する予測子を求める。
我々はDGのための新しい確率的フレームワークを提案し、高い確率でよく動作する予測器を学習することを目指している。
論文 参考訳(メタデータ) (2022-07-20T14:41:09Z) - An Explainable Regression Framework for Predicting Remaining Useful Life
of Machines [6.374451442486538]
本稿では,機械の残留実用寿命(RUL)予測のための説明可能な回帰フレームワークを提案する。
また、古典的およびニューラルネットワーク(NN)に基づくタスクのためのソリューションを含む機械学習(ML)アルゴリズムを評価した。
論文 参考訳(メタデータ) (2022-04-28T15:44:12Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - A new perspective on classification: optimally allocating limited
resources to uncertain tasks [4.169130102668252]
例えば、クレジットカード詐欺検出では、銀行は詐欺捜査チームに少数の取引しか割り当てることができない。
我々は、タスクの不確実性に対処するために分類を使うことは、利用可能な能力を考慮していないため、本質的には最適ではないと論じる。
本稿では,限られた能力しか持たない課題の期待利益を直接最適化することで,ランク付けのための学習を用いた新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-02-09T10:14:45Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Optimal Resource Allocation for Serverless Queries [8.59568779761598]
以前の作業では、リソース割り当てと実行時の積極的なトレードオフを無視しながら、ピークアロケーションの予測に重点を置いていた。
本稿では,新しいクエリと過去のクエリの両方に対して,アグレッシブなトレードオフでパフォーマンスを予測できる最適なリソース割り当てシステムを提案する。
論文 参考訳(メタデータ) (2021-07-19T02:55:48Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。