論文の概要: Deep Joint Semantic Coding and Beamforming for Near-Space Airship-Borne Massive MIMO Network
- arxiv url: http://arxiv.org/abs/2405.19889v1
- Date: Thu, 30 May 2024 09:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 14:59:14.913217
- Title: Deep Joint Semantic Coding and Beamforming for Near-Space Airship-Borne Massive MIMO Network
- Title(参考訳): 近空間飛行船大容量MIMOネットワークの深部連続符号化とビームフォーミング
- Authors: Minghui Wu, Zhen Gao, Zhaocheng Wang, Dusit Niyato, George K. Karagiannidis, Sheng Chen,
- Abstract要約: 近距離飛行船搭載通信網は、緊急に信頼性と効率のよい飛行船対Xリンクを必要とする。
本稿では,MIMO(Multiple-Input multiple-output)技術とセマンティックコミュニケーションを統合することを提案する。
- 参考スコア(独自算出の注目度): 70.63240823677182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Near-space airship-borne communication network is recognized to be an indispensable component of the future integrated ground-air-space network thanks to airships' advantage of long-term residency at stratospheric altitudes, but it urgently needs reliable and efficient Airship-to-X link. To improve the transmission efficiency and capacity, this paper proposes to integrate semantic communication with massive multiple-input multiple-output (MIMO) technology. Specifically, we propose a deep joint semantic coding and beamforming (JSCBF) scheme for airship-based massive MIMO image transmission network in space, in which semantics from both source and channel are fused to jointly design the semantic coding and physical layer beamforming. First, we design two semantic extraction networks to extract semantics from image source and channel state information, respectively. Then, we propose a semantic fusion network that can fuse these semantics into complex-valued semantic features for subsequent physical-layer transmission. To efficiently transmit the fused semantic features at the physical layer, we then propose the hybrid data and model-driven semantic-aware beamforming networks. At the receiver, a semantic decoding network is designed to reconstruct the transmitted images. Finally, we perform end-to-end deep learning to jointly train all the modules, using the image reconstruction quality at the receivers as a metric. The proposed deep JSCBF scheme fully combines the efficient source compressibility and robust error correction capability of semantic communication with the high spectral efficiency of massive MIMO, achieving a significant performance improvement over existing approaches.
- Abstract(参考訳): 近距離飛行船による通信網は、成層圏高度における長期滞在の利点により、将来統合された地上空間ネットワークの欠かせない要素であると認識されているが、緊急に信頼性と効率のよい飛行船対Xリンクが必要である。
本稿では,送信効率とキャパシティを向上させるため,MIMO(Multiple-Input multiple-output)技術とセマンティックコミュニケーションを統合することを提案する。
具体的には、宇宙空間における飛行船をベースとした大規模なMIMO画像伝送ネットワークのためのディープ・ジョイント・セマンティック・コーディング・ビームフォーミング(JSCBF)方式を提案し、そこでは、ソースとチャネルの両方のセマンティックスを融合させて、セマンティック・コーディングと物理層ビームフォーミングを共同設計する。
まず、画像ソースとチャネル状態情報から意味を抽出する2つの意味抽出ネットワークを設計する。
そこで本研究では,これらのセマンティクスを複雑な意味的特徴に融合し,その後の物理層伝送を実現するセマンティクス融合ネットワークを提案する。
物理層における融合セマンティックな特徴を効率的に伝達するために,ハイブリッドデータとモデル駆動のセマンティック・アウェア・ビームフォーミング・ネットワークを提案する。
受信機では、送信された画像の再構成のためにセマンティックデコーディングネットワークが設計されている。
最後に、受信機における画像再構成品質を指標として、すべてのモジュールを協調訓練するエンド・ツー・エンドのディープラーニングを実行する。
提案したディープJSCBFスキームは,MIMOの高スペクトル効率とセマンティック通信の効率的なソース圧縮性とロバストな誤り訂正機能を完全に結合し,既存の手法に比べて大幅な性能向上を実現している。
関連論文リスト
- An adversarial feature learning based semantic communication method for Human 3D Reconstruction [0.559239450391449]
本稿では,人体3次元再構成のための適応的特徴学習ベースセマンティックコミュニケーション手法(AFLSC)を提案する。
本研究では,2次元画像から空間配置,キーポイント,姿勢,深度情報を抽出するマルチタスク学習に基づく特徴抽出手法を提案する。
また,これらの特徴情報を意味データにエンコードするための,敵対的特徴学習に基づく意味的符号化手法を設計する。
論文 参考訳(メタデータ) (2024-11-23T16:09:53Z) - Agent-driven Generative Semantic Communication with Cross-Modality and Prediction [57.335922373309074]
本稿では,強化学習に基づくエージェント駆動型ジェネリックセマンティックコミュニケーションフレームワークを提案する。
本研究では, エージェント支援型セマンティックエンコーダを開発し, 適応的セマンティック抽出とサンプリングを行う。
設計モデルの有効性をUA-DETRACデータセットを用いて検証し、全体的なA-GSCフレームワークの性能向上を実証した。
論文 参考訳(メタデータ) (2024-04-10T13:24:27Z) - Adaptive Resource Allocation for Semantic Communication Networks [34.189531352110386]
本稿では,意味的量子化効率(SQE)や伝送遅延などのセマンティック通信ネットワークにおけるサービス品質について検討する。
全体として有効なSC-QoSを最大化する問題は、基地局、ビット意味表現、サブチャネル割り当て、およびセマンティックリソース割り当てを共同で送信することで定式化される。
本設計では, セマンティックノイズに効果的に対処でき, 無線通信において, 複数のベンチマーク方式と比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2023-12-02T09:12:12Z) - Reasoning with the Theory of Mind for Pragmatic Semantic Communication [62.87895431431273]
本稿では,実用的な意味コミュニケーションフレームワークを提案する。
2つの知性エージェント間の効果的な目標指向情報共有を可能にする。
数値的な評価は、少ないビット量で効率的な通信を実現するためのフレームワークの能力を示している。
論文 参考訳(メタデータ) (2023-11-30T03:36:19Z) - Generative AI-aided Joint Training-free Secure Semantic Communications
via Multi-modal Prompts [89.04751776308656]
本稿では,多モデルプロンプトを用いたGAI支援型SemComシステムを提案する。
セキュリティ上の懸念に応えて、フレンドリーなジャマーによって支援される隠蔽通信の応用を紹介する。
論文 参考訳(メタデータ) (2023-09-05T23:24:56Z) - Communication-Efficient Framework for Distributed Image Semantic
Wireless Transmission [68.69108124451263]
IoTデバイスを用いたマルチタスク分散画像伝送のためのFederated Learning-based semantic communication (FLSC)フレームワーク。
各リンクは階層型視覚変換器(HVT)ベースの抽出器とタスク適応トランスレータで構成される。
チャネル状態情報に基づく多重出力多重出力伝送モジュール。
論文 参考訳(メタデータ) (2023-08-07T16:32:14Z) - Generative Semantic Communication: Diffusion Models Beyond Bit Recovery [19.088596386865106]
セマンティックコミュニケーションのための新しい生成拡散誘導フレームワークを提案する。
我々は,高度に圧縮された意味情報のみを送信することで帯域幅を削減した。
以上の結果から,非常にノイズの多い条件下でも,物体,位置,深さが認識可能であることが明らかとなった。
論文 参考訳(メタデータ) (2023-06-07T10:36:36Z) - Perceptual Learned Source-Channel Coding for High-Fidelity Image
Semantic Transmission [7.692038874196345]
本稿では, 深部JSCCの最適化のために, 対向損失を導入する。
我々の新しい深層JSCCアーキテクチャは、エンコーダ、無線チャネル、デコーダ/ジェネレータ、および識別器を組み合わせたものである。
ユーザスタディでは、知覚的に類似したエンドツーエンドの画像伝送品質を達成することで、約50%の無線チャネル帯域幅コストを節約できることを確認した。
論文 参考訳(メタデータ) (2022-05-26T03:05:13Z) - Deep Learning Aided Routing for Space-Air-Ground Integrated Networks
Relying on Real Satellite, Flight, and Shipping Data [79.96177511319713]
現在の海上通信は主に単なる送信資源を持つ衛星に依存しており、現代の地上無線ネットワークよりも性能が劣っている。
大陸横断航空輸送の増加に伴い、商業旅客機に依存した航空アドホックネットワークという有望な概念は、空対地およびマルチホップ空対空リンクを介して衛星ベースの海上通信を強化する可能性がある。
低軌道衛星コンステレーション、旅客機、地上基地局、船舶がそれぞれ宇宙、航空、船舶として機能する、ユビキタスな海上通信を支援するための宇宙地上統合ネットワーク(SAGIN)を提案する。
論文 参考訳(メタデータ) (2021-10-28T14:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。