論文の概要: Liquid State Machine-Empowered Reflection Tracking in RIS-Aided THz
Communications
- arxiv url: http://arxiv.org/abs/2208.04400v1
- Date: Mon, 8 Aug 2022 20:19:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 13:15:20.618237
- Title: Liquid State Machine-Empowered Reflection Tracking in RIS-Aided THz
Communications
- Title(参考訳): RIS支援THz通信における液体状態機械駆動反射追跡
- Authors: Hosein Zarini, Narges Gholipoor, Mohamad Robat Mili, Mehdi Rasti, Hina
Tabassum and Ekram Hossain
- Abstract要約: 本稿では,時系列予測の観点からの深層学習の助けを借りて,RIS反射係数を追跡する枠組みを提案する。
提案したフレームワークは、類似の学習駆動フレームワークに対して2段階の強化を実現する。
- 参考スコア(独自算出の注目度): 31.302962202786027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Passive beamforming in reconfigurable intelligent surfaces (RISs) enables a
feasible and efficient way of communication when the RIS reflection
coefficients are precisely adjusted. In this paper, we present a framework to
track the RIS reflection coefficients with the aid of deep learning from a
time-series prediction perspective in a terahertz (THz) communication system.
The proposed framework achieves a two-step enhancement over the similar
learning-driven counterparts. Specifically, in the first step, we train a
liquid state machine (LSM) to track the historical RIS reflection coefficients
at prior time steps (known as a time-series sequence) and predict their
upcoming time steps. We also fine-tune the trained LSM through Xavier
initialization technique to decrease the prediction variance, thus resulting in
a higher prediction accuracy. In the second step, we use ensemble learning
technique which leverages on the prediction power of multiple LSMs to minimize
the prediction variance and improve the precision of the first step. It is
numerically demonstrated that, in the first step, employing the Xavier
initialization technique to fine-tune the LSM results in at most 26% lower LSM
prediction variance and as much as 46% achievable spectral efficiency (SE)
improvement over the existing counterparts, when an RIS of size 11x11 is
deployed. In the second step, under the same computational complexity of
training a single LSM, the ensemble learning with multiple LSMs degrades the
prediction variance of a single LSM up to 66% and improves the system
achievable SE at most 54%.
- Abstract(参考訳): RIS(reconfigurable intelligent surface)におけるパッシブビームフォーミングは、RIS反射係数を正確に調整した場合に、実現可能かつ効率的な通信を可能にする。
本稿では,テラヘルツ(THz)通信システムにおいて,時系列予測の観点からの深層学習によるRIS反射係数の追跡を行うフレームワークを提案する。
提案したフレームワークは、類似の学習駆動フレームワークに対して2段階の強化を実現する。
具体的には、第1段階において、過去のRIS反射係数を前段(時系列シーケンスとして知られる)で追跡する液体状態機械(LSM)を訓練し、今後の時間ステップを予測する。
また,学習したlsmをxavier初期化手法で微調整し,予測ばらつきを低減し,高い予測精度を実現する。
第2段階では,複数のlsmの予測力を活用したアンサンブル学習手法を用いて予測分散を最小化し,第1ステップの精度を向上させる。
第1段階では、lsmを微調整するためにxavier初期化技術を用いることで、最大で26%のlsm予測分散と最大46%の到達可能なスペクトル効率 (se) 向上が得られることが示される。
2番目のステップでは、1つのLSMをトレーニングするのと同じ計算複雑性の下で、複数のLSMによるアンサンブル学習は、1つのLSMの予測分散を66%まで低下させ、システム達成可能なSEを最大54%改善する。
関連論文リスト
- A Little Help Goes a Long Way: Efficient LLM Training by Leveraging Small LMs [74.35290684163718]
大規模言語モデル(LLM)開発における最大の課題は、その面倒な事前トレーニングコストである。
本稿では,小言語モデル(SLM)を活用して,LLMの事前学習効率と品質を改善するための有望なパラダイムについて検討する。
論文 参考訳(メタデータ) (2024-10-24T14:31:52Z) - Embedding Self-Correction as an Inherent Ability in Large Language Models for Enhanced Mathematical Reasoning [13.082135438792475]
自己補正の連鎖は大規模言語モデル(LLM)に固有の能力として自己補正を組み込む
CoSCは、一連の自己補正段階を通して動作する。各段階において、LLMは、与えられた問題に対処するプログラムを生成し、プログラムベースのツールを使用してこのプログラムを実行し、出力を取得し、その後、その出力を検証する。
第1段階では、LCMは、GPT-4から生成される比較的少量のシードデータで訓練され、初期CoSC能力が確立される。
第2段階では、CoSC能力は、より大きな自己生成データを用いたトレーニングによりさらに強化される。
論文 参考訳(メタデータ) (2024-10-14T17:16:44Z) - Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能評価のためのより効率的な指標として、事前学習損失に焦点を当てている。
我々は、データソース間のFLOPに基づいて、ドメイン固有の事前学習損失を予測するために、電力法解析関数を拡張した。
我々は2層ニューラルネットワークを用いて、複数のドメイン固有の損失と下流性能の非線形関係をモデル化する。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - HFT: Half Fine-Tuning for Large Language Models [42.60438623804577]
1つ以上の微調整フェーズを持つ大規模言語モデル(LLM)は、様々な機能をアンロックするために必要なステップとなっている。
本稿では,部分的パラメータを定期的にリセットすることで,LLMが元の知識の一部を復元できることを見出した。
本稿では,LLM 用ハーフファインチューニング (HFT) をフルファインチューニング (FFT) の代替として導入し,忘れる問題を緩和する。
論文 参考訳(メタデータ) (2024-04-29T07:07:58Z) - What Constitutes Good Contrastive Learning in Time-Series Forecasting? [10.44543726728613]
自己教師付きコントラスト学習(SSCL)は、様々な領域にわたる表現学習において顕著に改善されている。
本稿では,様々なSSCLアルゴリズムの有効性,学習戦略,モデルアーキテクチャ,それらの相互作用を包括的に分析することを目的とする。
平均二乗誤差(MSE)損失とSSCLを用いたトランスフォーマーモデルのエンドツーエンドトレーニングが時系列予測において最も効果的な手法として現れることを示す。
論文 参考訳(メタデータ) (2023-06-21T08:05:05Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Towards Understanding Label Smoothing [36.54164997035046]
ラベルスムーズな正規化(LSR)は、トレーニングアルゴリズムによるディープニューラルネットワークにおいて大きな成功を収めている。
適切なLSRが分散を減少させることで収束を加速することを示す。
本稿では,TSLA(Two-Stage LAbel smoothing algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-20T20:36:17Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z) - Millimeter Wave Communications with an Intelligent Reflector:
Performance Optimization and Distributional Reinforcement Learning [119.97450366894718]
ミリ波基地局のダウンリンクマルチユーザ通信を最適化するための新しいフレームワークを提案する。
チャネル状態情報(CSI)をリアルタイムで計測するために,チャネル推定手法を開発した。
最適赤外反射を学習し、ダウンリンク能力の期待を最大化するために、分布強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-02-24T22:18:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。