論文の概要: Soft Graph Transformer for MIMO Detection
- arxiv url: http://arxiv.org/abs/2509.12694v2
- Date: Wed, 17 Sep 2025 14:55:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 12:21:58.932916
- Title: Soft Graph Transformer for MIMO Detection
- Title(参考訳): MIMO検出用ソフトグラフ変換器
- Authors: Jiadong Hong, Lei Liu, Xinyu Bian, Wenjie Wang, Zhaoyang Zhang,
- Abstract要約: ソフトグラフ変換器(Soft Graph Transformer、SGT)は、ML(Maximum Likelihood)検出のために設計されたソフトインプット・ソフトアウトプット・ニューラルアーキテクチャである。
SGTは、シンボルと制約サブグラフ内のコンテキスト依存をエンコードするセルフアテンションと、サブグラフを横断する構造化メッセージパッシングを実行するグラフ対応のクロスアテンションを組み合わせることで、これらの制限に対処する。
実験では、SGTがほぼMLのパフォーマンスを達成し、ソフトなプリエンスを利用するレシーバシステムのためのフレキシブルで解釈可能なフレームワークを提供することを示した。
- 参考スコア(独自算出の注目度): 23.616336786063552
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose the Soft Graph Transformer (SGT), a soft-input-soft-output neural architecture designed for MIMO detection. While Maximum Likelihood (ML) detection achieves optimal accuracy, its exponential complexity makes it infeasible in large systems, and conventional message-passing algorithms rely on asymptotic assumptions that often fail in finite dimensions. Recent Transformer-based detectors show strong performance but typically overlook the MIMO factor graph structure and cannot exploit prior soft information. SGT addresses these limitations by combining self-attention, which encodes contextual dependencies within symbol and constraint subgraphs, with graph-aware cross-attention, which performs structured message passing across subgraphs. Its soft-input interface allows the integration of auxiliary priors, producing effective soft outputs while maintaining computational efficiency. Experiments demonstrate that SGT achieves near-ML performance and offers a flexible and interpretable framework for receiver systems that leverage soft priors.
- Abstract(参考訳): MIMO検出のためのソフトインプット・ソフトアウトプット・ニューラルアーキテクチャであるSoft Graph Transformer (SGT)を提案する。
Maximum Likelihood (ML) 検出は最適精度を達成するが、その指数関数的複雑性は大規模システムでは実現不可能であり、従来のメッセージパスアルゴリズムは有限次元でしばしば失敗する漸近的仮定に依存している。
最近のTransformerベースの検出器は高い性能を示すが、MIMO因子グラフ構造を見落としており、事前のソフト情報を利用することはできない。
SGTは、シンボルと制約サブグラフ内のコンテキスト依存をエンコードするセルフアテンションと、サブグラフを横断する構造化メッセージパッシングを実行するグラフ対応のクロスアテンションを組み合わせることで、これらの制限に対処する。
そのソフトインプットインタフェースは補助的な先行処理の統合を可能にし、計算効率を保ちながら効果的なソフトアウトプットを生成する。
実験では、SGTがほぼMLのパフォーマンスを達成し、ソフトなプリエンスを利用するレシーバシステムのためのフレキシブルで解釈可能なフレームワークを提供することを示した。
関連論文リスト
- GENIAL: Generative Design Space Exploration via Network Inversion for Low Power Algorithmic Logic Units [1.5845117761091052]
本稿では,算術単位の自動生成と最適化のための機械学習ベースのフレームワークであるGENIALを紹介する。
我々は、ジェネリックは他の方法よりも一貫してサンプリング効率が高く、最適化された設計に向けてより高速に収束することを示した。
また、有限状態マシンの大幅な改善によって、我々のアプローチの汎用性を示す。
論文 参考訳(メタデータ) (2025-07-25T06:34:59Z) - DNN-Based Precoding in RIS-Aided mmWave MIMO Systems With Practical Phase Shift [56.04579258267126]
本稿では、直接通信路を妨害したミリ波マルチインプット多重出力(MIMO)システムのスループットを最大化する。
リコンフィギュアブルインテリジェントサーフェス(RIS)は、視線(LoS)とマルチパス効果に関連するmmWave特性を考慮して伝送性を高めるために使用される。
ディープニューラルネットワーク(DNN)は、より高速なコードワード選択を容易にするために開発された。
論文 参考訳(メタデータ) (2025-07-03T17:35:06Z) - GITO: Graph-Informed Transformer Operator for Learning Complex Partial Differential Equations [0.0]
複素偏微分方程式系を学習するための新しいグラフインフォームド・トランスフォーマ演算子(GITO)アーキテクチャを提案する。
GITOは、HGT(Hybrid graph transformer)とTNO(Transformer Neural operator)の2つの主要モジュールから構成される。
ベンチマークPDEタスクの実験的結果は、GITOが既存のトランスフォーマーベースのニューラル演算子より優れていることを示している。
論文 参考訳(メタデータ) (2025-06-16T18:35:45Z) - HEAT: Hardware-Efficient Automatic Tensor Decomposition for Transformer
Compression [69.36555801766762]
本稿では,分解可能な指数空間を効率的に探索できるハードウェア対応テンソル分解フレームワークHEATを提案する。
ハードウェア対応のBERT変異体は, エネルギー遅延を5.7倍に低減し, 精度が1.1%以下であることを示す。
論文 参考訳(メタデータ) (2022-11-30T05:31:45Z) - Softmax-free Linear Transformers [90.83157268265654]
視覚変換器(ViT)は、視覚知覚タスクの最先端を推し進めている。
既存の手法は理論的に欠陥があるか、視覚認識に経験的に効果がないかのいずれかである。
我々はSoftmax-Free Transformers (SOFT) のファミリーを提案する。
論文 参考訳(メタデータ) (2022-07-05T03:08:27Z) - NN-LUT: Neural Approximation of Non-Linear Operations for Efficient
Transformer Inference [9.329021390526124]
GELU、Layer normalization、Softmaxといった非線形演算は、トランスフォーマーモデルのブロックの構築には不可欠だがコストがかかる。
本稿では,効率的なトランスフォーマー推論のためのハードウェアフレンドリな近似フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-03T23:06:57Z) - Permutation invariant graph-to-sequence model for template-free
retrosynthesis and reaction prediction [2.5655440962401617]
本稿では,テキスト生成のためのトランスフォーマーモデルのパワーと,分子グラフエンコーダの置換不変性を組み合わせた新しいGraph2SMILESモデルについて述べる。
エンドツーエンドアーキテクチャとして、Graph2SMILESは、分子から分子への変換を含むあらゆるタスクにおいて、Transformerのドロップイン置換として使用できる。
論文 参考訳(メタデータ) (2021-10-19T01:23:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。