論文の概要: Tree Meets Transformer: A Hybrid Architecture for Scalable Power Allocation in Cell-Free Networks
- arxiv url: http://arxiv.org/abs/2512.22639v1
- Date: Sat, 27 Dec 2025 16:23:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.155475
- Title: Tree Meets Transformer: A Hybrid Architecture for Scalable Power Allocation in Cell-Free Networks
- Title(参考訳): Tree Meets Transformer: セルフリーネットワークにおけるスケーラブルなパワーアロケーションのためのハイブリッドアーキテクチャ
- Authors: Irched Chafaa, Giacomo Bacci, Luca Sanguinetti,
- Abstract要約: 本稿では,ユーザ毎の電力割り当てをスケーラブルにするためのハイブリッドなツリートランスフォーマーアーキテクチャを提案する。
我々のモデルは、バイナリツリーを介してユーザ機能をグローバルなルート表現に圧縮し、このルートのみにTransformerエンコーダを適用し、共有デコーダを介してユーザごとのアップリンクとダウンリンクのパワーをデコードする。
- 参考スコア(独自算出の注目度): 11.450856107912452
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Power allocation remains a fundamental challenge in wireless communication networks, particularly under dynamic user loads and large-scale deployments. While Transformerbased models have demonstrated strong performance, their computational cost scales poorly with the number of users. In this work, we propose a novel hybrid Tree-Transformer architecture that achieves scalable per-user power allocation. Our model compresses user features via a binary tree into a global root representation, applies a Transformer encoder solely to this root, and decodes per-user uplink and downlink powers through a shared decoder. This design achieves logarithmic depth and linear total complexity, enabling efficient inference across large and variable user sets without retraining or architectural changes. We evaluate our model on the max-min fairness problem in cellfree massive MIMO systems and demonstrate that it achieves near-optimal performance while significantly reducing inference time compared to full-attention baselines.
- Abstract(参考訳): 無線通信ネットワークにおいて、特に動的なユーザ負荷や大規模デプロイメントの下では、電力割り当ては依然として根本的な課題である。
Transformerベースのモデルでは高い性能を示してきたが、その計算コストはユーザ数に匹敵しない。
本研究では,ユーザ毎の電力割り当てをスケーラブルにするためのハイブリッドなツリートランスフォーマーアーキテクチャを提案する。
我々のモデルは、バイナリツリーを介してユーザ機能をグローバルなルート表現に圧縮し、このルートのみにTransformerエンコーダを適用し、共有デコーダを介してユーザごとのアップリンクとダウンリンクのパワーをデコードする。
この設計は対数深度と線形全複雑度を達成し、トレーニングやアーキテクチャの変更を伴わずに、大規模かつ可変なユーザ集合間の効率的な推論を可能にする。
セルレス大規模MIMOシステムにおける最大値の公平性問題に対する本モデルの評価を行い,本モデルが最大値よりも推定時間を大幅に短縮し,ほぼ最適性能を達成できることを実証した。
関連論文リスト
- Chain-of-Thought Enhanced Shallow Transformers for Wireless Symbol Detection [14.363929799618283]
無線シンボル検出のためのCoT拡張浅層変圧器フレームワークCHOOSE(CHain Of thOught Symbol dEtection)を提案する。
隠れ空間内に自己回帰潜在推論ステップを導入することで、CHOOSEは浅いモデルの推論能力を大幅に改善する。
実験により,本手法は従来の浅層変圧器よりも優れ,深部変圧器に匹敵する性能が得られることが示された。
論文 参考訳(メタデータ) (2025-06-26T08:41:45Z) - Echo State Transformer: Attention Over Finite Memories [2.118933003468525]
本稿では,逐次データ処理の課題をエレガントに解決するハイブリッドアーキテクチャであるEcho State Transformers(EST)を紹介する。
ESTはTransformerのアテンションメカニズムとReservoir Computingの原則を統合し、固定サイズのウィンドウ分散メモリシステムを作成する。
ESTは5つのカテゴリのうち2つで総合的にランク付けし、分類と異常検出タスクにおける最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-25T09:56:25Z) - Transformer-Based Power Optimization for Max-Min Fairness in Cell-Free Massive MIMO [11.450856107912452]
本稿では,ユーザとアクセスポイントの位置のみを用いて,最適なアップリンクとダウンリンクの電力を共同で予測するトランスフォーマーニューラルネットワークを提案する。
実験結果から, ほぼ最適性能が得られた。
論文 参考訳(メタデータ) (2025-03-05T14:49:06Z) - AsCAN: Asymmetric Convolution-Attention Networks for Efficient Recognition and Generation [48.82264764771652]
本稿では,畳み込みブロックと変圧器ブロックを組み合わせたハイブリッドアーキテクチャAsCANを紹介する。
AsCANは、認識、セグメンテーション、クラス条件画像生成など、さまざまなタスクをサポートしている。
次に、同じアーキテクチャをスケールして、大規模なテキスト・イメージタスクを解決し、最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-11-07T18:43:17Z) - Unifying Dimensions: A Linear Adaptive Approach to Lightweight Image Super-Resolution [6.857919231112562]
ウィンドウベーストランスは超高解像度タスクにおいて優れた性能を示した。
畳み込みニューラルネットワークよりも計算複雑性と推論レイテンシが高い。
線形適応ミキサーネットワーク(LAMNet)という,畳み込みに基づくトランスフォーマーフレームワークを構築する。
論文 参考訳(メタデータ) (2024-09-26T07:24:09Z) - DLGSANet: Lightweight Dynamic Local and Global Self-Attention Networks
for Image Super-Resolution [83.47467223117361]
画像の超解像化に有効な軽量な動的局所・大域自己アテンションネットワーク(DLGSANet)を提案する。
トランスフォーマーのネットワーク設計により,ローカル特徴を効率的に抽出するシンプルなマルチヘッド動的自己アテンション(MHDLSA)モジュールを開発した。
この問題を解決するために,最も有用な類似値を選択するために,スパースグローバル自己アテンション(SparseGSA)モジュールを開発した。
論文 参考訳(メタデータ) (2023-01-05T12:06:47Z) - Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution [50.10987776141901]
近年の視覚変換器と自己注意は,様々なコンピュータビジョンタスクにおいて有望な成果を上げている。
我々は,CNNの局所的特徴とトランスフォーマーが捉えた長距離依存性を活用する,超解像(SR)タスクのための効果的なハイブリッドアーキテクチャを提案する。
提案手法は,多数のベンチマークデータセットから最先端のSR結果を得る。
論文 参考訳(メタデータ) (2022-03-15T06:52:25Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。