論文の概要: Unlocking Symbol-Level Precoding Efficiency Through Tensor Equivariant Neural Network
- arxiv url: http://arxiv.org/abs/2510.02108v1
- Date: Thu, 02 Oct 2025 15:15:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.180326
- Title: Unlocking Symbol-Level Precoding Efficiency Through Tensor Equivariant Neural Network
- Title(参考訳): テンソル同変ニューラルネットワークによるシンボルレベルプリコーディングの解法
- Authors: Jinshuo Zhang, Yafei Wang, Xinping Yi, Wenjin Wang, Shi Jin, Symeon Chatzinotas, Björn Ottersten,
- Abstract要約: シンボルレベルのプリコーディングにおいて,推論の複雑さの低いエンドツーエンドディープラーニング(DL)フレームワークを提案する。
提案手法は,従来の手法よりも約80倍の高速化を実現しつつ,SLPの大幅な性能向上を達成できることを示す。
- 参考スコア(独自算出の注目度): 84.22115118596741
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although symbol-level precoding (SLP) based on constructive interference (CI) exploitation offers performance gains, its high complexity remains a bottleneck. This paper addresses this challenge with an end-to-end deep learning (DL) framework with low inference complexity that leverages the structure of the optimal SLP solution in the closed-form and its inherent tensor equivariance (TE), where TE denotes that a permutation of the input induces the corresponding permutation of the output. Building upon the computationally efficient model-based formulations, as well as their known closed-form solutions, we analyze their relationship with linear precoding (LP) and investigate the corresponding optimality condition. We then construct a mapping from the problem formulation to the solution and prove its TE, based on which the designed networks reveal a specific parameter-sharing pattern that delivers low computational complexity and strong generalization. Leveraging these, we propose the backbone of the framework with an attention-based TE module, achieving linear computational complexity. Furthermore, we demonstrate that such a framework is also applicable to imperfect CSI scenarios, where we design a TE-based network to map the CSI, statistics, and symbols to auxiliary variables. Simulation results show that the proposed framework captures substantial performance gains of optimal SLP, while achieving an approximately 80-times speedup over conventional methods and maintaining strong generalization across user numbers and symbol block lengths.
- Abstract(参考訳): 構成的干渉 (CI) を用いたシンボルレベルのプリコーディング (SLP) は性能向上をもたらすが、その複雑さはボトルネックのままである。
本稿では,入力の置換が出力の対応する置換を誘導することを示す,閉形式における最適SLP解の構造と固有テンソル等式(TE)を利用する,低推論複雑性のエンドツーエンドディープラーニング(DL)フレームワークを用いて,この問題に対処する。
計算効率のよいモデルベース定式化と、その既知の閉形式解に基づいて、線形プリコーディング(LP)との関係を分析し、対応する最適条件について検討する。
次に、問題の定式化から解へのマッピングを構築し、そのTEを設計したネットワークが、計算の複雑さと強力な一般化をもたらす特定のパラメータ共有パターンを明らかにすることによって証明する。
これらを応用して、注意に基づくTEモジュールを用いたフレームワークのバックボーンを提案し、線形計算複雑性を実現する。
さらに、このようなフレームワークは、CSI、統計、シンボルを補助変数にマッピングするTEベースのネットワークを設計する、完全なCSIシナリオにも適用可能であることを実証する。
シミュレーションの結果,提案手法は従来の手法よりも約80倍の高速化を実現し,ユーザ数やシンボルブロック長の強い一般化を維持しつつ,SLPの大幅な性能向上を実現していることがわかった。
関連論文リスト
- STRCMP: Integrating Graph Structural Priors with Language Models for Combinatorial Optimization [18.162186876640764]
演算研究と理論計算機科学の中心となる組合せ最適化(CO)問題は、NPハードな性質のため、重要な計算課題を提示する。
本稿では,StRCMPを提案する。STRCMPは,構造先行を体系的に統合し,解の質と解解効率を向上する新しい構造対応アルゴリズム探索フレームワークである。
我々のフレームワークは、COインスタンスから構造埋め込みを抽出するグラフニューラルネットワーク(GNN)と、これらの埋め込みを条件としたLLMを組み合わせることで、ソルバ固有コードの形で高い性能のアルゴリズムを識別する。
論文 参考訳(メタデータ) (2025-05-22T15:37:42Z) - Bridging Pattern-Aware Complexity with NP-Hard Optimization: A Unifying Framework and Empirical Study [0.0]
本稿では,ドメイン間の効率的な計算複雑性を低減するための新しいパターン認識フレームワークを提案する。
厳密な定義、定理、メタ学習駆動型ソルバパイプラインによって、パターン利用効率(PUE)のようなメトリクスを導入し、最大で79%のソリューション品質向上を実現します。
論文 参考訳(メタデータ) (2025-03-12T11:05:06Z) - Combinatorial Optimization via LLM-driven Iterated Fine-tuning [47.66752049943335]
我々は,Large Language Models (LLMs) を利用して,柔軟で文脈に依存しない制約を最適化に統合する新しい方法を提案する。
本フレームワークは, 局所的制約と厳密なグローバル最適化とのバランスを, ベースラインサンプリング法よりも効率的に行う。
論文 参考訳(メタデータ) (2025-03-10T04:58:18Z) - Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - Semantic Probabilistic Layers for Neuro-Symbolic Learning [83.25785999205932]
我々は構造化出力予測(SOP)のための予測層を設計する。
予測が事前に定義されたシンボリック制約のセットと一致していることを保証するため、任意のニューラルネットワークにプラグインすることができる。
我々のセマンティック確率層(SPL)は、構造化された出力空間上で複雑な相関や制約をモデル化することができる。
論文 参考訳(メタデータ) (2022-06-01T12:02:38Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Robust Topology Optimization Using Multi-Fidelity Variational Autoencoders [1.0124625066746595]
強靭なトポロジー最適化(RTO)問題は、最高の平均性能を持つ設計を特定する。
計算効率を向上するニューラルネットワーク手法を提案する。
本手法の数値解析は,Lブラケット構造のロバスト設計における単一点負荷と複数点負荷について述べる。
論文 参考訳(メタデータ) (2021-07-19T20:40:51Z) - Constrained Combinatorial Optimization with Reinforcement Learning [0.30938904602244344]
本稿では,RL(Deep Reinforcement Learning)を用いた制約付き最適化問題に対処する枠組みを提案する。
我々は、その定式化における制約に対処するために、Neural Combinatorial Optimization(NCO)理論を拡張した。
その文脈では、ソリューションは環境との相互作用に基づいて反復的に構築されます。
論文 参考訳(メタデータ) (2020-06-22T03:13:07Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。