論文の概要: Residual-based Adaptive Huber Loss (RAHL) -- Design of an improved Huber loss for CQI prediction in 5G networks
- arxiv url: http://arxiv.org/abs/2408.14718v1
- Date: Tue, 27 Aug 2024 00:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 15:24:16.405803
- Title: Residual-based Adaptive Huber Loss (RAHL) -- Design of an improved Huber loss for CQI prediction in 5G networks
- Title(参考訳): Residual-based Adaptive Huber Loss (RAHL) -- 5GネットワークにおけるCQI予測のための改善されたハマー損失の設計
- Authors: Mina Kaviani, Jurandy Almeida, Fabio L. Verdi,
- Abstract要約: 我々はResidual-based Adaptive Huber Loss (RAHL)という新しい損失関数を提案する。
RAHLは、不整合データ精度を維持しながら、外れ値に対する堅牢性をバランスさせる。
その結果、RAHLの優位性が確認され、5GネットワークにおけるCQI予測の強化に期待できる道が開かれた。
- 参考スコア(独自算出の注目度): 0.7499722271664144
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Channel Quality Indicator (CQI) plays a pivotal role in 5G networks, optimizing infrastructure dynamically to ensure high Quality of Service (QoS). Recent research has focused on improving CQI estimation in 5G networks using machine learning. In this field, the selection of the proper loss function is critical for training an accurate model. Two commonly used loss functions are Mean Squared Error (MSE) and Mean Absolute Error (MAE). Roughly speaking, MSE put more weight on outliers, MAE on the majority. Here, we argue that the Huber loss function is more suitable for CQI prediction, since it combines the benefits of both MSE and MAE. To achieve this, the Huber loss transitions smoothly between MSE and MAE, controlled by a user-defined hyperparameter called delta. However, finding the right balance between sensitivity to small errors (MAE) and robustness to outliers (MSE) by manually choosing the optimal delta is challenging. To address this issue, we propose a novel loss function, named Residual-based Adaptive Huber Loss (RAHL). In RAHL, a learnable residual is added to the delta, enabling the model to adapt based on the distribution of errors in the data. Our approach effectively balances model robustness against outliers while preserving inlier data precision. The widely recognized Long Short-Term Memory (LSTM) model is employed in conjunction with RAHL, showcasing significantly improved results compared to the aforementioned loss functions. The obtained results affirm the superiority of RAHL, offering a promising avenue for enhanced CQI prediction in 5G networks.
- Abstract(参考訳): CQI(Channel Quality Indicator)は5Gネットワークにおいて重要な役割を担い、QoS(Quality of Service)を保証するためにインフラを動的に最適化する。
近年,機械学習を用いた5GネットワークにおけるCQI推定の改善に焦点が当てられている。
この分野では、適切な損失関数の選択は、正確なモデルを訓練するために重要である。
2つの一般的な損失関数はMean Squared Error (MSE) とMean Absolute Error (MAE) である。
おおまかに言えば、MSEはOffliersに重みを付け、MAEは多数を占めた。
ここでは、MSEとMAEの両方の利点を組み合わせ、ハマー損失関数はCQI予測により適していると論じる。
これを実現するために、ハマー損失は、デルタと呼ばれるユーザが定義したハイパーパラメータによって制御されるMSEとMAEの間でスムーズに遷移する。
しかし、最適デルタを手動で選択することで、小さなエラーに対する感度(MAE)と外れ値に対する堅牢性(MSE)の適切なバランスを見つけることは困難である。
この問題に対処するために,Residual-based Adaptive Huber Loss (RAHL) という新しい損失関数を提案する。
RAHLでは、学習可能な残差がデルタに追加され、データ内のエラーの分布に基づいてモデルを適応させることができる。
提案手法は,不整合データの精度を保ちながら,外乱に対するモデルロバスト性を効果的にバランスさせる。
広範に認識されているLong Short-Term Memory(LSTM)モデルがRAHLと併用され、上記の損失関数と比較して大幅に改善された結果を示す。
その結果, RAHLの優位性が確認され, 5GネットワークにおけるCQI予測の向上に期待できる道筋が得られた。
関連論文リスト
- Robust Fine-tuning of Zero-shot Models via Variance Reduction [56.360865951192324]
微調整ゼロショットモデルの場合、このデシドラトゥムは細調整モデルで、分布内(ID)と分布外(OOD)の両方で優れる。
トレードオフを伴わずに最適なIDとOODの精度を同時に達成できるサンプルワイズアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T13:13:39Z) - Stabilizing Extreme Q-learning by Maclaurin Expansion [51.041889588036895]
XQL(Extreme Q-learning)は、ベルマン誤差がガムベル分布に従うという仮定に基づいて損失関数を用いる。
オフラインとオンラインの強化学習環境では、強力なパフォーマンスを示している。
安定度を高めるため,Maclaurin Expanded Extreme Q-learningを提案する。
論文 参考訳(メタデータ) (2024-06-07T12:43:17Z) - A Robust Machine Learning Approach for Path Loss Prediction in 5G
Networks with Nested Cross Validation [0.6138671548064356]
5Gネットワークシステムにおいて,従来の経路損失予測モデルを克服する機械学習(ML)手法を用いて経路損失予測を行う。
まず,中国北京の都市マクロセルシナリオで実施した総合的な計測キャンペーンから得られたデータセットを取得する。
我々は、経路損失を予測するために、サポートベクトル回帰(SVR)、キャットブースト回帰(CBR)、eXtreme Gradient Boosting Regression(XGBR)、人工ニューラルネットワーク(ANN)、ランダムフォレスト(RF)メソッドをデプロイし、平均絶対誤差(MAE)、平均平方誤差(MSE)で予測結果を比較した。
論文 参考訳(メタデータ) (2023-10-02T09:21:58Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Alternate Loss Functions for Classification and Robust Regression Can Improve the Accuracy of Artificial Neural Networks [6.452225158891343]
本稿では,ニューラルネットワークのトレーニング速度と最終的な精度が,ニューラルネットワークのトレーニングに使用する損失関数に大きく依存することを示す。
様々なベンチマークタスクの性能を著しく向上させる2つの新しい分類損失関数を提案する。
論文 参考訳(メタデータ) (2023-03-17T12:52:06Z) - Cauchy Loss Function: Robustness Under Gaussian and Cauchy Noise [0.0]
教師付き機械学習では、損失関数の選択はデータ上の特定のノイズ分布を暗黙的に仮定する。
コーシー損失関数 (CLF) はコーシーノイズ分布を仮定するので、オフ値を持つデータに適している可能性がある。
CLFはMSEの結果に匹敵する結果を得たが、例外はいくつかあった。
論文 参考訳(メタデータ) (2023-02-14T18:34:44Z) - VisFIS: Visual Feature Importance Supervision with
Right-for-the-Right-Reason Objectives [84.48039784446166]
モデルFI監督は、VQAモデルの精度と、Right-to-the-Right-Reasonメトリクスの性能を有意義に向上させることができることを示す。
我々の最高のパフォーマンス手法であるVisual Feature Importance Supervision (VisFIS)は、ベンチマークVQAデータセットで強いベースラインを上回ります。
説明が妥当で忠実な場合には予測がより正確になる。
論文 参考訳(メタデータ) (2022-06-22T17:02:01Z) - Improving evidential deep learning via multi-task learning [1.8275108630751844]
本研究の目的は,効率的な不確実性推定を維持しつつ,ENetの予測精度を向上させることである。
この目的を達成するために,MT-ENetと呼ばれるマルチタスク学習フレームワークを提案する。
MT-ENetは、合成データセットと実世界のベンチマークで不確実性推定能力を失うことなく、ENetの予測精度を向上させる。
論文 参考訳(メタデータ) (2021-12-17T07:56:20Z) - Norm-in-Norm Loss with Faster Convergence and Better Performance for
Image Quality Assessment [20.288424566444224]
画像品質評価(IQA)モデルにおける損失関数の設計における正規化について検討する。
結果として生じるNorm-in-Normの損失は、主観的品質スコアに対する線形予測をIQAモデルに促す。
2つの関連するデータセットの実験では、MAEやMSEの損失と比較して、新しい損失はIQAモデルを約10倍の速度で収束させることが示されている。
論文 参考訳(メタデータ) (2020-08-10T04:01:21Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。