論文の概要: Robust Cell-Load Learning with a Small Sample Set
- arxiv url: http://arxiv.org/abs/2103.11467v1
- Date: Sun, 21 Mar 2021 19:17:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 10:09:19.030869
- Title: Robust Cell-Load Learning with a Small Sample Set
- Title(参考訳): 小さなサンプルセットによるロバストなセル負荷学習
- Authors: Daniyal Amir Awan, Renato L.G. Cavalcante, Slawomir Stanczak
- Abstract要約: 無線アクセスネットワーク(RAN)におけるセルロードの学習は、短期間で行わなければなりません。
比較的小さなトレーニングサンプルセットに基づく学習の必要性から生じる不確実性に対して堅牢な学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 35.07023055409166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning of the cell-load in radio access networks (RANs) has to be performed
within a short time period. Therefore, we propose a learning framework that is
robust against uncertainties resulting from the need for learning based on a
relatively small training sample set. To this end, we incorporate prior
knowledge about the cell-load in the learning framework. For example, an
inherent property of the cell-load is that it is monotonic in downlink (data)
rates. To obtain additional prior knowledge we first study the feasible rate
region, i.e., the set of all vectors of user rates that can be supported by the
network. We prove that the feasible rate region is compact. Moreover, we show
the existence of a Lipschitz function that maps feasible rate vectors to
cell-load vectors. With these results in hand, we present a learning technique
that guarantees a minimum approximation error in the worst-case scenario by
using prior knowledge and a small training sample set. Simulations in the
network simulator NS3 demonstrate that the proposed method exhibits better
robustness and accuracy than standard multivariate learning techniques,
especially for small training sample sets.
- Abstract(参考訳): 無線アクセスネットワーク(RAN)におけるセルローディングの学習は,短時間で行う必要がある。
そこで本研究では,比較的小さな学習サンプルセットに基づく学習の必要性から生じる不確実性に対して頑健な学習フレームワークを提案する。
この目的のために,我々は学習フレームワークにセル負荷に関する事前知識を取り入れた。
例えば、細胞負荷の固有の性質は、ダウンリンク(データ)レートにおいて単調であることである。
付加的な事前知識を得るために、我々はまず、実現可能なレート領域、すなわちネットワークで支持できる全てのユーザ率のベクトルの集合について研究する。
実現可能なレート領域がコンパクトであることを証明する。
さらに,実現可能な速度ベクトルをセル負荷ベクトルにマッピングするリプシッツ関数の存在を示す。
これらの結果から,事前知識と小規模な学習サンプルを用いて,最悪のシナリオにおける最小近似誤差を保証できる学習手法を提案する。
ネットワークシミュレータns3におけるシミュレーションにより,本手法は従来の多変量学習手法よりも頑健性と精度が向上することが示された。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Pareto Frontiers in Neural Feature Learning: Data, Compute, Width, and
Luck [35.6883212537938]
オフラインスパースパリティ学習は,多層パーセプトロンの勾配に基づくトレーニングにおいて,統計的クエリの下限を許容する教師付き分類問題である。
理論上, 実験上, 疎初期化とネットワーク幅の増大がサンプル効率を著しく向上させることを示す。
また,合成スパースパリティタスクは,軸方向の特徴学習を必要とする現実的な問題のプロキシとして有用であることを示す。
論文 参考訳(メタデータ) (2023-09-07T15:52:48Z) - Ticketed Learning-Unlearning Schemes [57.89421552780526]
そこで我々は,学習のためのチケット付きモデルを提案する。
広義のコンセプトクラスに対して,空間効率のよいチケット付き学習スキームを提供する。
論文 参考訳(メタデータ) (2023-06-27T18:54:40Z) - Learning Representations on the Unit Sphere: Investigating Angular
Gaussian and von Mises-Fisher Distributions for Online Continual Learning [7.145581090959242]
本稿では,新たな損失関数を備えたメモリベース表現学習手法を提案する。
提案手法は,タスク境界がぼやけた標準的な評価シナリオと現実的なシナリオの両方において,現状の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-06T02:38:01Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - When less is more: Simplifying inputs aids neural network understanding [12.73748893809092]
本研究では,事前学習した生成モデルによって与えられる符号化ビットサイズを用いて,単純さを計測する。
本稿では, 従来の訓練, データセットの凝縮, ポストホックな説明など, 単純化の効果について検討する。
論文 参考訳(メタデータ) (2022-01-14T18:58:36Z) - Learning to Learn to Demodulate with Uncertainty Quantification via
Bayesian Meta-Learning [59.014197664747165]
本稿では, よく校正された数パイロット復調器の取得を目的とした変分推論によるベイズ的メタラーニングについて紹介する。
その結果得られたベイズアンサンブルは、復調のためにニューラルネットワークの複数のインスタンスを実行する計算コストにおいて、より良い校正されたソフトな決定を提供する。
論文 参考訳(メタデータ) (2021-08-02T11:07:46Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Fast local linear regression with anchor regularization [21.739281173516247]
高速アンカー正規化局所線形法(FALL)と呼ばれる,単純で効果的な局所モデルトレーニングアルゴリズムを提案する。
合成および実世界のデータセットの実験を通じて、FALLは最先端のネットワークLassoアルゴリズムと精度の面で好適に比較できることを示した。
論文 参考訳(メタデータ) (2020-02-21T10:03:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。