論文の概要: Reverse Ordering Techniques for Attention-Based Channel Prediction
- arxiv url: http://arxiv.org/abs/2302.00341v2
- Date: Thu, 11 May 2023 10:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 18:10:02.276549
- Title: Reverse Ordering Techniques for Attention-Based Channel Prediction
- Title(参考訳): 注意に基づくチャネル予測のための逆順序付け手法
- Authors: Valentina Rizzello, Benedikt B\"ock, Michael Joham, Wolfgang Utschick
- Abstract要約: 本研究の目的は,ノイズ観測に基づく無線通信システムにおけるチャネルの予測である。
モデルは自然言語処理から適応し、チャネル予測の複雑な課題に取り組む。
- 参考スコア(独自算出の注目度): 11.630651920572221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work aims to predict channels in wireless communication systems based on
noisy observations, utilizing sequence-to-sequence models with attention
(Seq2Seq-attn) and transformer models. Both models are adapted from natural
language processing to tackle the complex challenge of channel prediction.
Additionally, a new technique called reverse positional encoding is introduced
in the transformer model to improve the robustness of the model against varying
sequence lengths. Similarly, the encoder outputs of the Seq2Seq-attn model are
reversed before applying attention. Simulation results demonstrate that the
proposed ordering techniques allow the models to better capture the
relationships between the channel snapshots within the sequence, irrespective
of the sequence length, as opposed to existing methods.
- Abstract(参考訳): 本研究の目的は,注意を伴うシーケンス・ツー・シーケンスモデル(seq2seq-attn)とトランスフォーマーモデルを用いて,ノイズ観測に基づく無線通信システムのチャネル予測を行うことである。
どちらのモデルも自然言語処理から適応し、チャネル予測の複雑な課題に取り組む。
さらに,変換器モデルに逆位置符号化と呼ばれる新しい手法を導入し,異なるシーケンス長に対するモデルの堅牢性を向上させる。
同様に、Seq2Seq-attnモデルのエンコーダ出力は注意を引く前に反転する。
シミュレーションの結果,提案手法により,既存の手法とは対照的に,シーケンス長に関わらず,シーケンス内のチャネルスナップショット間の関係をよりよく捉えることができることがわかった。
関連論文リスト
- Sequential Order-Robust Mamba for Time Series Forecasting [5.265578815577529]
MambaはTransformersに代わる有望な選択肢として登場し、シーケンシャルデータの処理において、ほぼ直線的な複雑さを提供する。
本稿では,データから生成された2つの埋め込みベクトルと逆チャネル順序との差を最小限に抑えるため,正規化戦略を取り入れたTS予測手法であるSOR-Mambaを提案する。
また,CDを捕捉する能力を高めるために,データ空間から潜在空間までのチャネル間の相関関係の保存を目的とした事前学習タスクであるチャネル相関モデリング(CCM)を導入する。
論文 参考訳(メタデータ) (2024-10-30T18:05:22Z) - Non-autoregressive Sequence-to-Sequence Vision-Language Models [63.77614880533488]
本稿では,デコーダ内の複数の推論経路をマージする並列デコードシーケンス・ツー・シーケンス・ビジョン言語モデルを提案する。
このモデルは最先端の自己回帰モデルと同等のパフォーマンスを実現するが、推論時間では高速である。
論文 参考訳(メタデータ) (2024-03-04T17:34:59Z) - Toeplitz Neural Network for Sequence Modeling [46.04964190407727]
Toeplitz行列ベクトル生成のトリックにより、シーケンスモデリングの時間的複雑さを減らし、ログ線形化することを示す。
パラメータの固定予算で相対位置係数を生成するために、相対位置エンコーダと呼ばれる軽量サブネットワークを提案する。
512 tokenのシーケンスでトレーニングされているにもかかわらず、我々のモデルは、一貫した性能で最大14Kトークンの入力シーケンス長を推定することができる。
論文 参考訳(メタデータ) (2023-05-08T14:49:01Z) - STMT: A Spatial-Temporal Mesh Transformer for MoCap-Based Action Recognition [50.064502884594376]
本研究では、モーションキャプチャー(MoCap)シーケンスを用いた人間の行動認識の問題点について検討する。
メッシュシーケンスを直接モデル化する新しい時空間メッシュ変換器(STMT)を提案する。
提案手法は,スケルトンベースモデルやポイントクラウドベースモデルと比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-31T16:19:27Z) - SeqDiffuSeq: Text Diffusion with Encoder-Decoder Transformers [50.90457644954857]
本研究では,拡散モデルを用いてシーケンス・ツー・シーケンスのテキスト生成を行う。
シーケンス・ツー・シーケンス生成のためのテキスト拡散モデルであるSeqDiffuSeqを提案する。
実験結果は、テキストの品質と推論時間の観点から、シーケンス・ツー・シーケンス生成の優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-20T15:16:24Z) - Unsupervised Flow-Aligned Sequence-to-Sequence Learning for Video
Restoration [85.3323211054274]
ビデオシーケンス内のフレーム間関係を適切にモデル化する方法は、ビデオ復元(VR)において重要であるが未解決の課題である。
本研究では,この問題を解決するために,教師なしフローアライメントシーケンス・ツー・シーケンス・モデル(S2SVR)を提案する。
S2SVRは、ビデオデブリ、ビデオスーパー解像度、圧縮されたビデオ品質向上など、複数のVRタスクにおいて優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-05-20T14:14:48Z) - Deliberation of Streaming RNN-Transducer by Non-autoregressive Decoding [21.978994865937786]
この方法は、テキスト機能とオーディオ機能の両方に対応するトランスフォーマーデコーダを各ステップで共有する、いくつかの改善ステップを実行する。
本研究では,ストリーミングRNN-Tモデルの仮説アライメントを条件に,第1パスRNN-Tよりも精度の高い認識結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-01T01:34:28Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Translate Reverberated Speech to Anechoic Ones: Speech Dereverberation
with BERT [6.876734825043823]
本研究では,単一チャンネル音声の残響について考察する。
自然言語処理(NLP)領域における双方向変換モデル(BERT)の成功に触発され,そのバックボーンシーケンスモデルとしての適用性を検討した。
論文 参考訳(メタデータ) (2020-07-16T00:45:27Z) - DiscreTalk: Text-to-Speech as a Machine Translation Problem [52.33785857500754]
本稿ではニューラルマシン翻訳(NMT)に基づくエンドツーエンドテキスト音声合成(E2E-TTS)モデルを提案する。
提案モデルは,非自己回帰ベクトル量子化変分オートエンコーダ(VQ-VAE)モデルと自己回帰トランスフォーマー-NMTモデルという2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2020-05-12T02:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。