論文の概要: BERTO: an Adaptive BERT-based Network Time Series Predictor with Operator Preferences in Natural Language
- arxiv url: http://arxiv.org/abs/2512.05721v1
- Date: Fri, 05 Dec 2025 13:54:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:57.045015
- Title: BERTO: an Adaptive BERT-based Network Time Series Predictor with Operator Preferences in Natural Language
- Title(参考訳): BERTO: 自然言語における演算子優先型適応BERTベースのネットワーク時系列予測器
- Authors: Nitin Priyadarshini Shankar, Vaibhav Singh, Sheetal Kalyani, Christian Maciocco,
- Abstract要約: BERTOは、通信ネットワークにおけるトラフィック予測とエネルギー最適化のためのBERTベースのフレームワークである。
BERTOは高い予測精度を提供し、バランシングロス関数とプロンプトベースのカスタマイズにより、電力節約と性能の間のトレードオフを調整することができる。
- 参考スコア(独自算出の注目度): 13.522165916305378
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce BERTO, a BERT-based framework for traffic prediction and energy optimization in cellular networks. Built on transformer architectures, BERTO delivers high prediction accuracy, while its Balancing Loss Function and prompt-based customization allow operators to adjust the trade-off between power savings and performance. Natural language prompts guide the model to manage underprediction and overprediction in accordance with the operator's intent. Experiments on real-world datasets show that BERTO improves upon existing models with a $4.13$\% reduction in MSE while introducing the feature of balancing competing objectives of power saving and performance through simple natural language inputs, operating over a flexible range of $1.4$ kW in power and up to $9\times$ variation in service quality, making it well suited for intelligent RAN deployments.
- Abstract(参考訳): 通信網におけるトラフィック予測とエネルギー最適化のためのBERTベースのフレームワークであるBERTOを紹介する。
BERTOはトランスフォーマーアーキテクチャに基づいて構築され、高い予測精度を提供する一方で、バランシングロス関数とプロンプトベースのカスタマイズにより、電力節約と性能のトレードオフを調整することができる。
自然言語は、オペレータの意図に従って過小評価と過小評価を管理するようモデルに誘導する。
実世界のデータセットでの実験では、BERTOは既存のモデルを4.13$\%のMSEで改善し、単純な自然言語入力による省電力とパフォーマンスの競合目標のバランスを取る機能を導入し、柔軟な1.4$kWの電力と最大9.9\times$のサービス品質で運用し、インテリジェントなRANデプロイメントに適している。
関連論文リスト
- Adaptive Online Learning with LSTM Networks for Energy Price Prediction [0.5514902789425196]
本研究は,カリフォルニアのエネルギー市場における日頭電力価格の予測モデルの開発に焦点をあてる。
このモデルには、歴史的価格データ、気象条件、エネルギーの混合など、さまざまな特徴が含まれている。
その結果、カスタム損失関数はモデルの性能を向上し、予測値と実際の値がより密に一致できることが示されている。
論文 参考訳(メタデータ) (2025-10-19T15:48:38Z) - EffOWT: Transfer Visual Language Models to Open-World Tracking Efficiently and Effectively [60.48750788231384]
Open-World Tracking (OWT) は,任意のカテゴリのすべてのオブジェクトを追跡することを目的としている。
EffOWTは未知のカテゴリの追跡基準OWTAで5.5%の絶対的なゲインを達成するが、完全な微調整に比べてパラメータの1.3%しか更新しない。
論文 参考訳(メタデータ) (2025-04-07T14:47:58Z) - Forecast-PEFT: Parameter-Efficient Fine-Tuning for Pre-trained Motion Forecasting Models [68.23649978697027]
Forecast-PEFTは、モデルのパラメータの大部分を凍結し、新しく導入されたプロンプトとアダプタの調整に集中する微調整戦略である。
実験の結果,Forecast-PEFTは動作予測タスクにおいて従来のフルチューニング手法よりも優れていた。
Forecast-FTは予測性能をさらに改善し、従来のベースライン法よりも最大9.6%向上した。
論文 参考訳(メタデータ) (2024-07-28T19:18:59Z) - Exploring the Benefits of Differentially Private Pre-training and
Parameter-Efficient Fine-tuning for Table Transformers [56.00476706550681]
Table Transformer(TabTransformer)は最先端のニューラルネットワークモデルであり、差分プライバシ(DP)はデータのプライバシを確保する上で不可欠なコンポーネントである。
本稿では,これら2つの側面を組み合わせ,伝達学習のシナリオで組み合わせることのメリットについて考察する。
論文 参考訳(メタデータ) (2023-09-12T19:08:26Z) - NarrowBERT: Accelerating Masked Language Model Pretraining and Inference [50.59811343945605]
そこで我々はNarrowBERTを提案する。NarrowBERTは改良されたトランスフォーマーエンコーダで、マスク付き言語モデルのプリトレーニングのスループットを2ドル以上の値で向上させる。
NarrowBERTは、自己アテンションクエリとフィードフォワード層が事前トレーニング中に各文のマスク付きトークンでのみ動作するように、トランスフォーマーモデルをスペーサー化する。
NarrowBERTは、MNLIのような文符号化タスクにおいて、最小(またはノー)のパフォーマンス劣化を伴って、$3.5times$で推論時にスループットを向上することを示す。
論文 参考訳(メタデータ) (2023-01-11T23:45:50Z) - DecBERT: Enhancing the Language Understanding of BERT with Causal
Attention Masks [33.558503823505056]
本研究では,因果注意マスクを用いたBERTの位置符号化能力の向上に焦点をあてる。
本稿では,新たな事前学習型言語モデルDecBERTを提案し,GLUEベンチマークで評価する。
実験の結果,(1)因果注意マスクは言語理解タスクにおいてBERTに有効であること,(2)位置埋め込みのないDecBERTモデルはGLUEベンチマークで同等のパフォーマンスを達成できること,(3)修正によって事前学習プロセスが促進され,DecBERTはベースラインシステムよりも全体的な性能が向上すること,などが示されている。
論文 参考訳(メタデータ) (2022-04-19T06:12:48Z) - Automated Few-Shot Time Series Forecasting based on Bi-level Programming [5.760976250387322]
本稿では,バイレベルプログラミングの観点から,数発の学習パイプラインの最適設計を自動化するBiLO-Auto-TSF/MLフレームワークを開発する。
提案したBiLO-Auto-TSF/MLフレームワークの有効性を総合的に検証した。
論文 参考訳(メタデータ) (2022-03-07T12:15:14Z) - A New State-of-the-Art Transformers-Based Load Forecaster on the Smart
Grid Domain [0.0]
スマートグリッドの効率的なエネルギー管理と電力系統計画には,計測レベルの負荷予測が不可欠である。
メーターレベルの負荷予測タスクのための新しいTransformerベースのアルゴリズムは、かつての最先端LSTMと従来のベンチマークであるvanilla RNNを上回った。
論文 参考訳(メタデータ) (2021-08-05T14:05:43Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - Wirelessly Powered Federated Edge Learning: Optimal Tradeoffs Between
Convergence and Power Transfer [42.30741737568212]
無線電力伝送(WPT)を用いた電力機器の解法を提案する。
本研究の目的は、無線で駆動するFEEL(WP-FEEL)システムの導入に関するガイドラインの導出である。
その結果、WPTプロビジョニングに関する有用なガイドラインを提供し、学習パフォーマンスの保証を提供します。
論文 参考訳(メタデータ) (2021-02-24T15:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。