論文の概要: Soft Graph Transformer for MIMO Detection
- arxiv url: http://arxiv.org/abs/2509.12694v1
- Date: Tue, 16 Sep 2025 05:42:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.906132
- Title: Soft Graph Transformer for MIMO Detection
- Title(参考訳): MIMO検出用ソフトグラフ変換器
- Authors: Jiadong Hong, Lei Liu, Xinyu Bian, Wenjie Wang, Zhaoyang Zhang,
- Abstract要約: Soft Graph Transformer(SGT)は、ML(Maximum Likelihood)検出に適したニューラルネットワークである。
SGTは、メッセージパッシングを直接グラフ対応のアテンションメカニズムに統合し、デコーダにインフォームされた更新をサポートする。
スタンドアロンの検出器として、SGTはMLのパフォーマンスに近づき、Transformerベースのアプローチをはるかに上回っている。
- 参考スコア(独自算出の注目度): 23.616336786063552
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose the Soft Graph Transformer (SGT), a Soft-Input-Soft-Output neural architecture tailored for MIMO detection. While Maximum Likelihood (ML) detection achieves optimal accuracy, its prohibitive exponential complexity renders it impractical for real-world systems. Conventional message passing algorithms offer tractable alternatives but rely on large-system asymptotics and random matrix assumptions, both of which break down under practical implementations. Prior Transformer-based detectors, on the other hand, fail to incorporate the MIMO factor graph structure and cannot utilize decoder-side soft information, limiting their standalone performance and their applicability in iterative detection-decoding (IDD). To overcome these limitations, SGT integrates message passing directly into a graph-aware attention mechanism and supports decoder-informed updates through soft-input embeddings. This design enables effective soft-output generation while preserving computational efficiency. As a standalone detector, SGT closely approaches ML performance and surpasses prior Transformer-based approaches.
- Abstract(参考訳): 我々はMIMO検出に適したSoft-Input-Soft-OutputニューラルアーキテクチャであるSoft Graph Transformer (SGT)を提案する。
Maximum Likelihood (ML) 検出は最適な精度を達成するが、その禁止的な指数関数的複雑性は現実のシステムでは実用的ではない。
従来のメッセージパッシングアルゴリズムは、トラクタブルな代替手段を提供するが、大規模システム漸近とランダムマトリックスの仮定に依存しており、どちらも実用的な実装で分解される。
一方、以前のTransformerベースの検出器はMIMO因子グラフ構造を組み込むことができず、デコーダ側のソフト情報を利用することができず、スタンドアロンの性能と反復検出復号(IDD)への適用性を制限する。
これらの制限を克服するため、SGTはメッセージパッシングを直接グラフ対応のアテンションメカニズムに統合し、ソフトインプットの埋め込みを通じてデコーダにインフォームされた更新をサポートする。
この設計は、計算効率を保ちながら効果的なソフトアウトプット生成を可能にする。
スタンドアロンの検出器として、SGTはMLのパフォーマンスに近づき、Transformerベースのアプローチをはるかに上回っている。
関連論文リスト
- GENIAL: Generative Design Space Exploration via Network Inversion for Low Power Algorithmic Logic Units [1.5845117761091052]
本稿では,算術単位の自動生成と最適化のための機械学習ベースのフレームワークであるGENIALを紹介する。
我々は、ジェネリックは他の方法よりも一貫してサンプリング効率が高く、最適化された設計に向けてより高速に収束することを示した。
また、有限状態マシンの大幅な改善によって、我々のアプローチの汎用性を示す。
論文 参考訳(メタデータ) (2025-07-25T06:34:59Z) - DNN-Based Precoding in RIS-Aided mmWave MIMO Systems With Practical Phase Shift [56.04579258267126]
本稿では、直接通信路を妨害したミリ波マルチインプット多重出力(MIMO)システムのスループットを最大化する。
リコンフィギュアブルインテリジェントサーフェス(RIS)は、視線(LoS)とマルチパス効果に関連するmmWave特性を考慮して伝送性を高めるために使用される。
ディープニューラルネットワーク(DNN)は、より高速なコードワード選択を容易にするために開発された。
論文 参考訳(メタデータ) (2025-07-03T17:35:06Z) - GITO: Graph-Informed Transformer Operator for Learning Complex Partial Differential Equations [0.0]
複素偏微分方程式系を学習するための新しいグラフインフォームド・トランスフォーマ演算子(GITO)アーキテクチャを提案する。
GITOは、HGT(Hybrid graph transformer)とTNO(Transformer Neural operator)の2つの主要モジュールから構成される。
ベンチマークPDEタスクの実験的結果は、GITOが既存のトランスフォーマーベースのニューラル演算子より優れていることを示している。
論文 参考訳(メタデータ) (2025-06-16T18:35:45Z) - HEAT: Hardware-Efficient Automatic Tensor Decomposition for Transformer
Compression [69.36555801766762]
本稿では,分解可能な指数空間を効率的に探索できるハードウェア対応テンソル分解フレームワークHEATを提案する。
ハードウェア対応のBERT変異体は, エネルギー遅延を5.7倍に低減し, 精度が1.1%以下であることを示す。
論文 参考訳(メタデータ) (2022-11-30T05:31:45Z) - Softmax-free Linear Transformers [90.83157268265654]
視覚変換器(ViT)は、視覚知覚タスクの最先端を推し進めている。
既存の手法は理論的に欠陥があるか、視覚認識に経験的に効果がないかのいずれかである。
我々はSoftmax-Free Transformers (SOFT) のファミリーを提案する。
論文 参考訳(メタデータ) (2022-07-05T03:08:27Z) - NN-LUT: Neural Approximation of Non-Linear Operations for Efficient
Transformer Inference [9.329021390526124]
GELU、Layer normalization、Softmaxといった非線形演算は、トランスフォーマーモデルのブロックの構築には不可欠だがコストがかかる。
本稿では,効率的なトランスフォーマー推論のためのハードウェアフレンドリな近似フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-03T23:06:57Z) - Permutation invariant graph-to-sequence model for template-free
retrosynthesis and reaction prediction [2.5655440962401617]
本稿では,テキスト生成のためのトランスフォーマーモデルのパワーと,分子グラフエンコーダの置換不変性を組み合わせた新しいGraph2SMILESモデルについて述べる。
エンドツーエンドアーキテクチャとして、Graph2SMILESは、分子から分子への変換を含むあらゆるタスクにおいて、Transformerのドロップイン置換として使用できる。
論文 参考訳(メタデータ) (2021-10-19T01:23:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。