論文の概要: Predicting CSI Sequences With Attention-Based Neural Networks
- arxiv url: http://arxiv.org/abs/2302.00341v1
- Date: Wed, 1 Feb 2023 09:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 13:17:09.084616
- Title: Predicting CSI Sequences With Attention-Based Neural Networks
- Title(参考訳): 注意型ニューラルネットワークによるcsi系列の予測
- Authors: Valentina Rizzello, Benedikt B\"ock, Michael Joham, Wolfgang Utschick
- Abstract要約: 無線通信システムにおけるマルチステップチャネル予測の問題について考察する。
本稿では、チャネル状態情報(CSI)予測にSeq2Seq(Seq2Seq)とTransformer Neural Network(TNN)モデルを用いることの可能性を検討する。
- 参考スコア(独自算出の注目度): 11.630651920572221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we consider the problem of multi-step channel prediction in
wireless communication systems. In existing works, autoregressive (AR) models
are either replaced or combined with feed-forward neural networks(NNs) or,
alternatively, with recurrent neural networks (RNNs). This paper explores the
possibility of using sequence-to-sequence (Seq2Seq) and transformer neural
network (TNN) models for channel state information (CSI) prediction. Simulation
results show that both, Seq2Seq and TNNs, represent an appealing alternative to
RNNs and feed-forward NNs in the context of CSI prediction. Additionally, the
TNN with a few adaptations can extrapolate better than other models to CSI
sequences that are either shorter or longer than the ones the model saw during
training.
- Abstract(参考訳): 本稿では,無線通信システムにおけるマルチステップチャネル予測の問題点について考察する。
既存の研究では、自己回帰(AR)モデルはフィードフォワードニューラルネットワーク(NN)に置き換えられるか、あるいは、リカレントニューラルネットワーク(RNN)と組み合わせられる。
本稿では、チャネル状態情報(CSI)予測にSeq2SeqとTransformer Neural Network(TNN)モデルを用いることの可能性を検討する。
シミュレーションの結果, seq2seq と tnn はともに csi 予測の文脈において rnn とフィードフォワード nn の代替として魅力的であることがわかった。
さらに、いくつかの適応を持つTNNは、トレーニング中にモデルが見たものよりも短いか長いCSIシーケンスに、他のモデルよりもうまく外挿することができる。
関連論文リスト
- Sequential Order-Robust Mamba for Time Series Forecasting [5.265578815577529]
MambaはTransformersに代わる有望な選択肢として登場し、シーケンシャルデータの処理において、ほぼ直線的な複雑さを提供する。
本稿では,データから生成された2つの埋め込みベクトルと逆チャネル順序との差を最小限に抑えるため,正規化戦略を取り入れたTS予測手法であるSOR-Mambaを提案する。
また,CDを捕捉する能力を高めるために,データ空間から潜在空間までのチャネル間の相関関係の保存を目的とした事前学習タスクであるチャネル相関モデリング(CCM)を導入する。
論文 参考訳(メタデータ) (2024-10-30T18:05:22Z) - Non-autoregressive Sequence-to-Sequence Vision-Language Models [63.77614880533488]
本稿では,デコーダ内の複数の推論経路をマージする並列デコードシーケンス・ツー・シーケンス・ビジョン言語モデルを提案する。
このモデルは最先端の自己回帰モデルと同等のパフォーマンスを実現するが、推論時間では高速である。
論文 参考訳(メタデータ) (2024-03-04T17:34:59Z) - Toeplitz Neural Network for Sequence Modeling [46.04964190407727]
Toeplitz行列ベクトル生成のトリックにより、シーケンスモデリングの時間的複雑さを減らし、ログ線形化することを示す。
パラメータの固定予算で相対位置係数を生成するために、相対位置エンコーダと呼ばれる軽量サブネットワークを提案する。
512 tokenのシーケンスでトレーニングされているにもかかわらず、我々のモデルは、一貫した性能で最大14Kトークンの入力シーケンス長を推定することができる。
論文 参考訳(メタデータ) (2023-05-08T14:49:01Z) - STMT: A Spatial-Temporal Mesh Transformer for MoCap-Based Action Recognition [50.064502884594376]
本研究では、モーションキャプチャー(MoCap)シーケンスを用いた人間の行動認識の問題点について検討する。
メッシュシーケンスを直接モデル化する新しい時空間メッシュ変換器(STMT)を提案する。
提案手法は,スケルトンベースモデルやポイントクラウドベースモデルと比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-31T16:19:27Z) - SeqDiffuSeq: Text Diffusion with Encoder-Decoder Transformers [50.90457644954857]
本研究では,拡散モデルを用いてシーケンス・ツー・シーケンスのテキスト生成を行う。
シーケンス・ツー・シーケンス生成のためのテキスト拡散モデルであるSeqDiffuSeqを提案する。
実験結果は、テキストの品質と推論時間の観点から、シーケンス・ツー・シーケンス生成の優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-20T15:16:24Z) - Unsupervised Flow-Aligned Sequence-to-Sequence Learning for Video
Restoration [85.3323211054274]
ビデオシーケンス内のフレーム間関係を適切にモデル化する方法は、ビデオ復元(VR)において重要であるが未解決の課題である。
本研究では,この問題を解決するために,教師なしフローアライメントシーケンス・ツー・シーケンス・モデル(S2SVR)を提案する。
S2SVRは、ビデオデブリ、ビデオスーパー解像度、圧縮されたビデオ品質向上など、複数のVRタスクにおいて優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-05-20T14:14:48Z) - Deliberation of Streaming RNN-Transducer by Non-autoregressive Decoding [21.978994865937786]
この方法は、テキスト機能とオーディオ機能の両方に対応するトランスフォーマーデコーダを各ステップで共有する、いくつかの改善ステップを実行する。
本研究では,ストリーミングRNN-Tモデルの仮説アライメントを条件に,第1パスRNN-Tよりも精度の高い認識結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-01T01:34:28Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Translate Reverberated Speech to Anechoic Ones: Speech Dereverberation
with BERT [6.876734825043823]
本研究では,単一チャンネル音声の残響について考察する。
自然言語処理(NLP)領域における双方向変換モデル(BERT)の成功に触発され,そのバックボーンシーケンスモデルとしての適用性を検討した。
論文 参考訳(メタデータ) (2020-07-16T00:45:27Z) - DiscreTalk: Text-to-Speech as a Machine Translation Problem [52.33785857500754]
本稿ではニューラルマシン翻訳(NMT)に基づくエンドツーエンドテキスト音声合成(E2E-TTS)モデルを提案する。
提案モデルは,非自己回帰ベクトル量子化変分オートエンコーダ(VQ-VAE)モデルと自己回帰トランスフォーマー-NMTモデルという2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2020-05-12T02:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。