論文の概要: Soft Graph Transformer for MIMO Detection
- arxiv url: http://arxiv.org/abs/2509.12694v3
- Date: Fri, 17 Oct 2025 06:57:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 15:58:54.421978
- Title: Soft Graph Transformer for MIMO Detection
- Title(参考訳): MIMO検出用ソフトグラフ変換器
- Authors: Jiadong Hong, Lei Liu, Xinyu Bian, Wenjie Wang, Zhaoyang Zhang,
- Abstract要約: ソフトグラフ変換器(Soft Graph Transformer、SGT)は、ML(Maximum Likelihood)検出のために設計されたソフトインプット・ソフトアウトプット・ニューラルアーキテクチャである。
SGTは、シンボルと制約サブグラフ内のコンテキスト依存をエンコードするセルフアテンションと、サブグラフを横断する構造化メッセージパッシングを実行するグラフ対応のクロスアテンションを組み合わせることで、これらの制限に対処する。
実験では、SGTがほぼMLのパフォーマンスを達成し、ソフトなプリエンスを利用するレシーバシステムのためのフレキシブルで解釈可能なフレームワークを提供することを示した。
- 参考スコア(独自算出の注目度): 23.616336786063552
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose the Soft Graph Transformer (SGT), a soft-input-soft-output neural architecture designed for MIMO detection. While Maximum Likelihood (ML) detection achieves optimal accuracy, its exponential complexity makes it infeasible in large systems, and conventional message-passing algorithms rely on asymptotic assumptions that often fail in finite dimensions. Recent Transformer-based detectors show strong performance but typically overlook the MIMO factor graph structure and cannot exploit prior soft information. SGT addresses these limitations by combining self-attention, which encodes contextual dependencies within symbol and constraint subgraphs, with graph-aware cross-attention, which performs structured message passing across subgraphs. Its soft-input interface allows the integration of auxiliary priors, producing effective soft outputs while maintaining computational efficiency. Experiments demonstrate that SGT achieves near-ML performance and offers a flexible and interpretable framework for receiver systems that leverage soft priors.
- Abstract(参考訳): MIMO検出のためのソフトインプット・ソフトアウトプット・ニューラルアーキテクチャであるSoft Graph Transformer (SGT)を提案する。
Maximum Likelihood (ML) 検出は最適精度を達成するが、その指数関数的複雑性は大規模システムでは実現不可能であり、従来のメッセージパスアルゴリズムは有限次元でしばしば失敗する漸近的仮定に依存している。
最近のTransformerベースの検出器は高い性能を示すが、MIMO因子グラフ構造を見落としており、事前のソフト情報を利用することはできない。
SGTは、シンボルと制約サブグラフ内のコンテキスト依存をエンコードするセルフアテンションと、サブグラフを横断する構造化メッセージパッシングを実行するグラフ対応のクロスアテンションを組み合わせることで、これらの制限に対処する。
そのソフトインプットインタフェースは補助的な先行処理の統合を可能にし、計算効率を保ちながら効果的なソフトアウトプットを生成する。
実験では、SGTがほぼMLのパフォーマンスを達成し、ソフトなプリエンスを利用するレシーバシステムのためのフレキシブルで解釈可能なフレームワークを提供することを示した。
関連論文リスト
- TranX-Adapter: Bridging Artifacts and Semantics within MLLMs for Robust AI-generated Image Detection [70.42796551833946]
テクスチャレベルのアーティファクトとセマンティックな特徴をマルチモーダルな言語モデル(MLLM)に組み込むことで、AIGI検出能力を向上することができる。
本稿では,タスク認識型Optimal-Transport Fusionを統合した軽量フュージョンアダプタTranX-Adapterを提案する。
いくつかの高度なMLLM上での標準AIGI検出ベンチマークの実験は、TranX-Adapterが一貫性と大幅な改善をもたらすことを示している。
論文 参考訳(メタデータ) (2026-02-25T09:22:46Z) - Plain Transformers are Surprisingly Powerful Link Predictors [57.01966734467712]
リンク予測はグラフ機械学習における中核的な課題であり、リッチで複雑なトポロジ的依存関係をキャプチャするモデルを必要とする。
グラフニューラルネットワーク(GNN)が標準的なソリューションであるのに対して、最先端のパイプラインは明示的な構造やメモリ集約的なノードの埋め込みに依存していることが多い。
本報告では,手作りのプリミティブに置き換えるエンコーダのみのプレーントランスであるPENCILについて,サンプリングしたローカルサブグラフに注目する。
論文 参考訳(メタデータ) (2026-02-02T02:45:52Z) - MeshGraphNet-Transformer: Scalable Mesh-based Learned Simulation for Solid Mechanics [0.0]
MeshGraphNet-Transformer(MGN-T)は,Transformerのグローバルモデリング機能とMeshGraphNetの幾何学的帰納バイアスを組み合わせた新しいアーキテクチャである。
MGN-Tは、大規模な高解像度メッシュ上での反復メッセージパッシングによる非効率な長距離情報伝搬である標準MGNの重要な制限を克服する。
我々は,MGN-Tが産業規模のメッシュの衝撃力学をうまく処理できることを実証した。
論文 参考訳(メタデータ) (2026-01-30T17:02:47Z) - GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - A Novel Unified Extended Matrix for Graph Signal Processing: Theory and Application [10.908840038943643]
本稿では、パラメトリック設計により拡張隣接行列と統一グラフ表現行列を統合する統合拡張行列(UEM)フレームワークを提案する。
合成および実世界のデータセットに対する実験結果から,UEM-GFTは異常検出タスクにおいて既存のGSOベースの手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-08-16T02:30:41Z) - GENIAL: Generative Design Space Exploration via Network Inversion for Low Power Algorithmic Logic Units [1.5845117761091052]
本稿では,算術単位の自動生成と最適化のための機械学習ベースのフレームワークであるGENIALを紹介する。
我々は、ジェネリックは他の方法よりも一貫してサンプリング効率が高く、最適化された設計に向けてより高速に収束することを示した。
また、有限状態マシンの大幅な改善によって、我々のアプローチの汎用性を示す。
論文 参考訳(メタデータ) (2025-07-25T06:34:59Z) - DNN-Based Precoding in RIS-Aided mmWave MIMO Systems With Practical Phase Shift [56.04579258267126]
本稿では、直接通信路を妨害したミリ波マルチインプット多重出力(MIMO)システムのスループットを最大化する。
リコンフィギュアブルインテリジェントサーフェス(RIS)は、視線(LoS)とマルチパス効果に関連するmmWave特性を考慮して伝送性を高めるために使用される。
ディープニューラルネットワーク(DNN)は、より高速なコードワード選択を容易にするために開発された。
論文 参考訳(メタデータ) (2025-07-03T17:35:06Z) - GITO: Graph-Informed Transformer Operator for Learning Complex Partial Differential Equations [0.0]
複素偏微分方程式系を学習するための新しいグラフインフォームド・トランスフォーマ演算子(GITO)アーキテクチャを提案する。
GITOは、HGT(Hybrid graph transformer)とTNO(Transformer Neural operator)の2つの主要モジュールから構成される。
ベンチマークPDEタスクの実験的結果は、GITOが既存のトランスフォーマーベースのニューラル演算子より優れていることを示している。
論文 参考訳(メタデータ) (2025-06-16T18:35:45Z) - Modeling and Performance Analysis for Semantic Communications Based on Empirical Results [53.805458017074294]
終端計測とSNRの関係をモデル化するためのAlpha-Beta-Gamma (ABG) 式を提案する。
画像再構成タスクでは、提案されたABG公式は、SCUNetやVision Transformerといった一般的なDLネットワークに適合する。
我々の知る限りでは、これはエンドツーエンドのパフォーマンス指標と意味コミュニケーションのためのSNRの間の最初の理論的表現である。
論文 参考訳(メタデータ) (2025-04-29T06:07:50Z) - Multiscale Graph Neural Network Autoencoders for Interpretable
Scientific Machine Learning [0.0]
この研究の目的は、オートエンコーダベースのモデルにおいて、潜在空間解釈可能性と非構造化メッシュとの互換性という2つの制限に対処することである。
これは、複雑な流体流れのアプリケーションのデモを含む、新しいグラフニューラルネットワーク(GNN)自動エンコーディングアーキテクチャの開発によって達成される。
論文 参考訳(メタデータ) (2023-02-13T08:47:11Z) - HEAT: Hardware-Efficient Automatic Tensor Decomposition for Transformer
Compression [69.36555801766762]
本稿では,分解可能な指数空間を効率的に探索できるハードウェア対応テンソル分解フレームワークHEATを提案する。
ハードウェア対応のBERT変異体は, エネルギー遅延を5.7倍に低減し, 精度が1.1%以下であることを示す。
論文 参考訳(メタデータ) (2022-11-30T05:31:45Z) - Softmax-free Linear Transformers [90.83157268265654]
視覚変換器(ViT)は、視覚知覚タスクの最先端を推し進めている。
既存の手法は理論的に欠陥があるか、視覚認識に経験的に効果がないかのいずれかである。
我々はSoftmax-Free Transformers (SOFT) のファミリーを提案する。
論文 参考訳(メタデータ) (2022-07-05T03:08:27Z) - NN-LUT: Neural Approximation of Non-Linear Operations for Efficient
Transformer Inference [9.329021390526124]
GELU、Layer normalization、Softmaxといった非線形演算は、トランスフォーマーモデルのブロックの構築には不可欠だがコストがかかる。
本稿では,効率的なトランスフォーマー推論のためのハードウェアフレンドリな近似フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-03T23:06:57Z) - SOFT: Softmax-free Transformer with Linear Complexity [112.9754491864247]
視覚変換器(ViT)は、パッチワイド画像トークン化と自己認識によって、様々な視覚認識タスクの最先端を推し進めている。
線形複雑度で自己注意を近似する様々な試みが自然言語処理で行われている。
これらの制限は、近似中にソフトマックスの自己注意を維持することに根ざしている。
ソフトマックスフリー変圧器(SOFT)を初めて提案する。
論文 参考訳(メタデータ) (2021-10-22T17:57:29Z) - Permutation invariant graph-to-sequence model for template-free
retrosynthesis and reaction prediction [2.5655440962401617]
本稿では,テキスト生成のためのトランスフォーマーモデルのパワーと,分子グラフエンコーダの置換不変性を組み合わせた新しいGraph2SMILESモデルについて述べる。
エンドツーエンドアーキテクチャとして、Graph2SMILESは、分子から分子への変換を含むあらゆるタスクにおいて、Transformerのドロップイン置換として使用できる。
論文 参考訳(メタデータ) (2021-10-19T01:23:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。