論文の概要: Outage Performance and Novel Loss Function for an ML-Assisted Resource
Allocation: An Exact Analytical Framework
- arxiv url: http://arxiv.org/abs/2305.09739v1
- Date: Tue, 16 May 2023 18:23:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 18:52:10.865733
- Title: Outage Performance and Novel Loss Function for an ML-Assisted Resource
Allocation: An Exact Analytical Framework
- Title(参考訳): ML支援資源配分のための機能停止と新たな損失関数:厳密な分析フレームワーク
- Authors: Nidhi Simmons, David E Simmons, Michel Daoud Yacoub
- Abstract要約: 本稿では,これらのシステムでよく発生する故障確率問題に機械学習を適用して対処することに焦点を当てる。
本稿では、MLバイナリ分類予測器が適切なリソースの取得を支援する、シングルユーザマルチリソース割り当て戦略を検討する。
理論的に最適で微分可能な損失関数を定式化し、予測器を訓練する。
- 参考スコア(独自算出の注目度): 4.886382552259227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning (ML) is a popular tool that will be pivotal in enabling 6G
and beyond communications. This paper focuses on applying ML solutions to
address outage probability issues commonly encountered in these systems. In
particular, we consider a single-user multi-resource greedy allocation
strategy, where an ML binary classification predictor assists in seizing an
adequate resource. With no access to future channel state information, this
predictor foresees each resource's likely future outage status. When the
predictor encounters a resource it believes will be satisfactory, it allocates
it to the user. Critically, the goal of the predictor is to ensure that a user
avoids an unsatisfactory resource since this is likely to cause an outage. Our
main result establishes exact and asymptotic expressions for this system's
outage probability. With this, we formulate a theoretically optimal,
differentiable loss function to train our predictor. We then compare predictors
trained using this and traditional loss functions; namely, binary cross-entropy
(BCE), mean squared error (MSE), and mean absolute error (MAE). Predictors
trained using our novel loss function provide superior outage probability in
all scenarios. Our loss function sometimes outperforms predictors trained with
the BCE, MAE, and MSE loss functions by multiple orders of magnitude.
- Abstract(参考訳): 機械学習(ml)は、コミュニケーションを超えて6gを可能にするための重要なツールである。
本稿では,これらのシステムでよく発生する故障確率問題にMLソリューションを適用することに焦点を当てる。
特に,MLバイナリ分類予測器が適切なリソースの取得を支援する,単一ユーザマルチリソースのgreedyアロケーション戦略を検討する。
将来のチャネル状態情報にアクセスできないため、この予測器は各リソースの将来の停止状態を予測する。
予測者が満足できると信じているリソースに遭遇すると、それをユーザに割り当てる。
重要なのは、この予測器の目標は、ユーザが不満足なリソースを避けることを保証することだ。
本研究の主な成果は,システム停止確率の正確かつ漸近的な表現を確立することである。
これにより、理論上最適で微分可能な損失関数を定式化し、予測者を訓練する。
次に、これと従来の損失関数を用いて訓練された予測器、すなわちバイナリクロスエントロピー(BCE)、平均二乗誤差(MSE)、平均絶対誤差(MAE)を比較した。
新たな損失関数を用いてトレーニングした予測器は,すべてのシナリオにおいて優れた停止確率を提供する。
我々の損失関数は、BCE、MAE、MSEの損失関数で訓練された予測器を桁違いに上回ることがある。
関連論文リスト
- Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能評価のためのより効率的な指標として、事前学習損失に焦点を当てている。
我々は、データソース間のFLOPに基づいて、ドメイン固有の事前学習損失を予測するために、電力法解析関数を拡張した。
我々は2層ニューラルネットワークを用いて、複数のドメイン固有の損失と下流性能の非線形関係をモデル化する。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - Enforcing Equity in Neural Climate Emulators [0.0]
ニューラルネットワークエミュレータを予測の不平等な品質で罰するカスタム損失関数を提案する。
損失関数は、ニューラルネットワークを向かわせるために、特定の株式の定義を規定しない。
以上の結果から, 損失関数でトレーニングしたニューラル気候エミュレータの方が, より公平な予測が可能であることが示唆された。
論文 参考訳(メタデータ) (2024-06-28T03:47:54Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Distribution-free risk assessment of regression-based machine learning
algorithms [6.507711025292814]
我々は回帰アルゴリズムとモデル予測の周囲に定義された区間内に存在する真のラベルの確率を計算するリスク評価タスクに焦点をあてる。
そこで,本研究では,正のラベルを所定の確率で含むことが保証される予測区間を提供する共形予測手法を用いてリスク評価問題を解決する。
論文 参考訳(メタデータ) (2023-10-05T13:57:24Z) - Probable Domain Generalization via Quantile Risk Minimization [90.15831047587302]
ドメインの一般化は、目に見えないテスト分布でうまく機能する予測子を求める。
我々はDGのための新しい確率的フレームワークを提案し、高い確率でよく動作する予測器を学習することを目指している。
論文 参考訳(メタデータ) (2022-07-20T14:41:09Z) - An Explainable Regression Framework for Predicting Remaining Useful Life
of Machines [6.374451442486538]
本稿では,機械の残留実用寿命(RUL)予測のための説明可能な回帰フレームワークを提案する。
また、古典的およびニューラルネットワーク(NN)に基づくタスクのためのソリューションを含む機械学習(ML)アルゴリズムを評価した。
論文 参考訳(メタデータ) (2022-04-28T15:44:12Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - A new perspective on classification: optimally allocating limited
resources to uncertain tasks [4.169130102668252]
例えば、クレジットカード詐欺検出では、銀行は詐欺捜査チームに少数の取引しか割り当てることができない。
我々は、タスクの不確実性に対処するために分類を使うことは、利用可能な能力を考慮していないため、本質的には最適ではないと論じる。
本稿では,限られた能力しか持たない課題の期待利益を直接最適化することで,ランク付けのための学習を用いた新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-02-09T10:14:45Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Optimal Resource Allocation for Serverless Queries [8.59568779761598]
以前の作業では、リソース割り当てと実行時の積極的なトレードオフを無視しながら、ピークアロケーションの予測に重点を置いていた。
本稿では,新しいクエリと過去のクエリの両方に対して,アグレッシブなトレードオフでパフォーマンスを予測できる最適なリソース割り当てシステムを提案する。
論文 参考訳(メタデータ) (2021-07-19T02:55:48Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。