論文の概要: BERT4beam: Large AI Model Enabled Generalized Beamforming Optimization
- arxiv url: http://arxiv.org/abs/2509.11056v1
- Date: Sun, 14 Sep 2025 02:49:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.889275
- Title: BERT4beam: Large AI Model Enabled Generalized Beamforming Optimization
- Title(参考訳): BERT4beam: 汎用ビームフォーミング最適化が可能な大規模AIモデル
- Authors: Yuhang Li, Yang Lu, Wei Chen, Bo Ai, Zhiguo Ding, Dusit Niyato,
- Abstract要約: 本稿では,ビームフォーミング最適化のための大規模AIモデルについて検討する。
本稿では、BERT4エンコーダと呼ばれる変換器(BERT)からの双方向エンコーダ表現に基づく新しいフレームワークを提案する。
本フレームワークをベースとして,単一タスクとマルチタスクのビームフォーミング最適化のためのBERTベースの2つのアプローチを提案する。
- 参考スコア(独自算出の注目度): 77.17508487745026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) is anticipated to emerge as a pivotal enabler for the forthcoming sixth-generation (6G) wireless communication systems. However, current research efforts regarding large AI models for wireless communications primarily focus on fine-tuning pre-trained large language models (LLMs) for specific tasks. This paper investigates the large-scale AI model designed for beamforming optimization to adapt and generalize to diverse tasks defined by system utilities and scales. We propose a novel framework based on bidirectional encoder representations from transformers (BERT), termed BERT4beam. We aim to formulate the beamforming optimization problem as a token-level sequence learning task, perform tokenization of the channel state information, construct the BERT model, and conduct task-specific pre-training and fine-tuning strategies. Based on the framework, we propose two BERT-based approaches for single-task and multi-task beamforming optimization, respectively. Both approaches are generalizable for varying user scales. Moreover, the former can adapt to varying system utilities and antenna configurations by re-configuring the input and output module of the BERT model, while the latter, termed UBERT, can directly generalize to diverse tasks, due to a finer-grained tokenization strategy. Extensive simulation results demonstrate that the two proposed approaches can achieve near-optimal performance and outperform existing AI models across various beamforming optimization tasks, showcasing strong adaptability and generalizability.
- Abstract(参考訳): 人工知能(AI)は、今後の第6世代(6G)無線通信システムにおいて、重要なイネーブラーとして登場することが期待されている。
しかし、無線通信のための大規模AIモデルに関する現在の研究は、主に特定のタスクのための微調整済みの大規模言語モデル(LLM)に焦点を当てている。
本稿では,ビームフォーミング最適化のための大規模AIモデルについて検討する。
本稿では、BERT4beamと呼ばれる変換器(BERT)からの双方向エンコーダ表現に基づく新しいフレームワークを提案する。
我々は、ビームフォーミング最適化問題をトークンレベルのシーケンス学習タスクとして定式化し、チャネル状態情報のトークン化を行い、BERTモデルを構築し、タスク固有の事前学習および微調整戦略を実行することを目的とする。
本フレームワークをベースとして,単一タスクとマルチタスクのビームフォーミング最適化のためのBERTベースの2つのアプローチを提案する。
どちらのアプローチも様々なユーザースケールで一般化可能である。
さらに、前者はBERTモデルの入出力モジュールを再構成することで、様々なシステムユーティリティやアンテナ構成に適応できるが、後者はUBERTと呼ばれ、よりきめ細かいトークン化戦略により、様々なタスクに直接一般化することができる。
大規模なシミュレーション結果から,提案手法は最適に近い性能を達成し,様々なビームフォーミング最適化タスクにまたがる既存AIモデルより優れ,高い適応性と一般化性を示す。
関連論文リスト
- EA-ViT: Efficient Adaptation for Elastic Vision Transformer [37.442677800641164]
ビジョントランスフォーマー(ViT)は、コンピュータビジョンの基礎モデルとして登場し、下流タスクへの一般化と適応性に優れている。
多様なリソース制約をサポートするためにViTをデプロイするには、通常、複数のサイズ固有のViTを再トレーニングする必要がある。
資源制約の異なるプラットフォーム上でのデプロイにおいて,単一のプロセスでさまざまなサイズで複数のモデルを生成することが可能な,効率的なViT適応フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-25T15:11:09Z) - AI2MMUM: AI-AI Oriented Multi-Modal Universal Model Leveraging Telecom Domain Large Model [8.404195378257178]
本稿では,AI2MMUM(AI2MMUM)の多モードユニバーサルモデルを提案する。
タスク適応性を高めるために、タスク命令は固定されたタスクキーワードと学習可能な暗黙のプレフィックスプロンプトから構成される。
タスク固有の軽量ヘッドは、タスク目標を直接出力するように設計されている。
論文 参考訳(メタデータ) (2025-05-15T06:32:59Z) - Large Language Model as Meta-Surrogate for Data-Driven Many-Task Optimization: A Proof-of-Principle Study [11.452011929848844]
本研究では,マルチタスク最適化を支援するメタサロゲートフレームワークを提案する。
問題群に適合するメタデータを持つ普遍モデルを定義することにより、多タスクフィットネス予測のための統一的なフレームワークを定式化する。
我々のフレームワークは、双対レベルの知識伝達 -- 代理レベルと個別レベルの両方 -- をサポートし、最適化の効率性と堅牢性を高めます。
論文 参考訳(メタデータ) (2025-03-11T11:13:11Z) - Model Evolution Framework with Genetic Algorithm for Multi-Task Reinforcement Learning [85.91908329457081]
マルチタスク強化学習は、様々なシナリオにまたがって一般化可能なエージェントを開発することを目的として、様々なタスクを完遂するために単一のポリシーを採用する。
既存のアプローチでは、ルーティングネットワークを使用して各タスクの特定のルートを生成し、モジュールのセットをさまざまなモデルに再構築し、複数のタスクを同時に完了させるのが一般的である。
本稿では,遺伝的アルゴリズム(MEGA)を用いたモデル進化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-19T09:22:34Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。