論文の概要: A Transformer Inspired AI-based MIMO receiver
- arxiv url: http://arxiv.org/abs/2510.20363v1
- Date: Thu, 23 Oct 2025 09:05:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.716616
- Title: A Transformer Inspired AI-based MIMO receiver
- Title(参考訳): トランスフォーマーによるAIベースのMIMO受信機
- Authors: András Rácz, Tamás Borsos, András Veres, Benedek Csala,
- Abstract要約: AttDetの設計は、モデルベースの解釈可能性とデータ駆動の柔軟性を組み合わせる。
5Gチャネルモデルと高次混合QAM変調および符号化方式のリンクレベルシミュレーションによる実演を行う。
AttDetは予測可能で現実的な複雑さを維持しながら、ほぼ最適のBER/BLERパフォーマンスにアプローチすることができる。
- 参考スコア(独自算出の注目度): 0.5039813366558306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present AttDet, a Transformer-inspired MIMO (Multiple Input Multiple Output) detection method that treats each transmit layer as a token and learns inter-stream interference via a lightweight self-attention mechanism. Queries and keys are derived directly from the estimated channel matrix, so attention scores quantify channel correlation. Values are initialized by matched-filter outputs and iteratively refined. The AttDet design combines model-based interpretability with data-driven flexibility. We demonstrate through link-level simulations under realistic 5G channel models and high-order, mixed QAM modulation and coding schemes, that AttDet can approach near-optimal BER/BLER (Bit Error Rate/Block Error Rate) performance while maintaining predictable, polynomial complexity.
- Abstract(参考訳): 本稿では,トランスフォーマーにインスパイアされたMIMO(Multiple Input Multiple Output)検出手法であるAttDetについて述べる。
クエリとキーは推定チャネル行列から直接導出されるので、アテンションスコアはチャネル相関を定量化する。
値は一致したフィルタ出力によって初期化され、反復的に洗練される。
AttDetの設計は、モデルベースの解釈可能性とデータ駆動の柔軟性を組み合わせる。
我々は,現実的な5Gチャネルモデルと高次混合QAM変調および符号化方式によるリンクレベルのシミュレーションを通じて,予測可能な多項式複雑性を維持しつつ,近最適BER/BLER(Bit Error Rate/Block Error Rate)性能にアプローチできることを実証した。
関連論文リスト
- Robust Noise Attenuation via Adaptive Pooling of Transformer Outputs [0.0]
この研究は、入力ベクトルのサブセットが下流のタスク(信号)に必要な情報を含んでおり、残りはイントラクタ(ノイズ)である問題を考える。
AvgPool, MaxPool, ClsTokenといった変圧器出力を集約する標準的な手法は、入力の信号-雑音比(SNR)が変動するにつれて、性能の低下に弱い。
注意に基づく適応プーリング手法は、任意のSNRに対して導出誤差境界内で信号-最適ベクトル量子化器を近似することができることを示す。
論文 参考訳(メタデータ) (2025-06-10T20:18:32Z) - Accelerating Diffusion LLMs via Adaptive Parallel Decoding [50.9948753314669]
並列にサンプリングされたトークンの数を動的に調整する新しい手法であるアダプティブ並列復号法(APD)を導入する。
APDは、ダウンストリームベンチマークで最小限の品質劣化を伴って、非常に高いスループットを提供する。
論文 参考訳(メタデータ) (2025-05-31T06:10:10Z) - Deformable Mixer Transformer with Gating for Multi-Task Learning of
Dense Prediction [126.34551436845133]
CNNとTransformerには独自の利点があり、MTL(Multi-task Learning)の高密度予測に広く使われている。
本稿では,変形可能なCNNと問合せベースのTransformerの長所を共用したMTLモデルを提案する。
論文 参考訳(メタデータ) (2023-08-10T17:37:49Z) - DeMT: Deformable Mixer Transformer for Multi-Task Learning of Dense
Prediction [40.447092963041236]
変形可能なCNNとクエリベースのTransformerの利点を組み合わせた新しいMTLモデルを提案する。
提案手法は, 単純かつ効率的なエンコーダ・デコーダアーキテクチャに基づいている。
我々のモデルはGFLOPを少なくし、現在のTransformerやCNNベースの競合モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-01-09T16:00:15Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - Machine Learning for MU-MIMO Receive Processing in OFDM Systems [14.118477167150143]
従来の線形最小平均二乗誤差(LMMSE)アーキテクチャ上に構築したML強化MU-MIMO受信機を提案する。
cnnはチャネル推定誤差の2次統計量の近似を計算するために用いられる。
CNNベースのデマッパーは、多数の周波数分割多重記号とサブキャリアを共同で処理する。
論文 参考訳(メタデータ) (2020-12-15T09:55:37Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Data-Driven Symbol Detection via Model-Based Machine Learning [117.58188185409904]
機械学習(ML)とモデルベースアルゴリズムを組み合わせた,検出設計のシンボル化を目的とした,データ駆動型フレームワークについてレビューする。
このハイブリッドアプローチでは、よく知られたチャネルモデルに基づくアルゴリズムをMLベースのアルゴリズムで拡張し、チャネルモデル依存性を除去する。
提案手法は, 正確なチャネル入出力統計関係を知らなくても, モデルベースアルゴリズムのほぼ最適性能が得られることを示す。
論文 参考訳(メタデータ) (2020-02-14T06:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。