論文の概要: Joint Semantic-Channel Coding and Modulation for Token Communications
- arxiv url: http://arxiv.org/abs/2511.15699v1
- Date: Wed, 19 Nov 2025 18:56:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.948368
- Title: Joint Semantic-Channel Coding and Modulation for Token Communications
- Title(参考訳): トークン通信における共同意味・チャネル符号化と変調
- Authors: Jingkai Ying, Zhijin Qin, Yulong Feng, Liejun Wang, Xiaoming Tao,
- Abstract要約: トークン通信の問題点を考察し,トークンを効率よく確実に送信する方法について考察する。
本稿では,トークンエンコーダとポイントトークンを標準デジタルコンステレーションポイントにマッピングする共同セマンティックチャネルと変調方式を提案する。
提案手法は,ジョイント・セマンティック・チャネル・コーディングと従来の分離符号化の両方に優れる。
- 参考スコア(独自算出の注目度): 37.814311208185906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the Transformer architecture has achieved outstanding performance across a wide range of tasks and modalities. Token is the unified input and output representation in Transformer-based models, which has become a fundamental information unit. In this work, we consider the problem of token communication, studying how to transmit tokens efficiently and reliably. Point cloud, a prevailing three-dimensional format which exhibits a more complex spatial structure compared to image or video, is chosen to be the information source. We utilize the set abstraction method to obtain point tokens. Subsequently, to get a more informative and transmission-friendly representation based on tokens, we propose a joint semantic-channel and modulation (JSCCM) scheme for the token encoder, mapping point tokens to standard digital constellation points (modulated tokens). Specifically, the JSCCM consists of two parallel Point Transformer-based encoders and a differential modulator which combines the Gumel-softmax and soft quantization methods. Besides, the rate allocator and channel adapter are developed, facilitating adaptive generation of high-quality modulated tokens conditioned on both semantic information and channel conditions. Extensive simulations demonstrate that the proposed method outperforms both joint semantic-channel coding and traditional separate coding, achieving over 1dB gain in reconstruction and more than 6x compression ratio in modulated symbols.
- Abstract(参考訳): 近年、Transformerアーキテクチャは様々なタスクやモダリティで優れたパフォーマンスを実現している。
TokenはTransformerベースのモデルにおける統一された入力と出力の表現であり、基本的な情報単位になっている。
本研究では,トークン通信の問題点を考察し,トークンを効率的にかつ確実に送信する方法について考察する。
画像やビデオよりも複雑な空間構造を示す3次元フォーマットであるポイントクラウドが情報ソースとして選択される。
集合抽象法を用いて点トークンを得る。
その後,トークンに基づくより情報的かつ伝達に優しい表現を得るために,トークンエンコーダと標準的なデジタルコンステレーションポイント(変調トークン)にポイントトークンをマッピングするジョイントセマンティックチャネルと変調(JSCCM)方式を提案する。
具体的には、2つの並列ポイントトランスフォーマーベースのエンコーダと、Gumel-softmax法とソフト量子化法を組み合わせた微分変調器で構成される。
さらに、レートアロケータとチャネルアダプタを開発し、セマンティック情報とチャネル条件の両方で条件付けられた高品質な変調トークンを適応的に生成する。
拡張的シミュレーションにより,提案手法は結合セマンティックチャネル符号化と従来の分離符号化の両方より優れており,再構成では1dB以上のゲイン,変調記号では6倍以上の圧縮比が達成されている。
関連論文リスト
- Channel-Aware Vector Quantization for Robust Semantic Communication on Discrete Channels [5.680520767606761]
本稿では,VQJSCCと呼ばれるジョイントソースチャネル符号化フレームワークにおいて,チャネル認識ベクトル量子化(CAVQ)アルゴリズムを提案する。
このフレームワークでは、セマンティックな特徴を離散化し、変調星座のシンボルに直接マッピングし、CAVQはチャネル遷移確率を量子化プロセスに統合する。
伝送ストリームをサブチャネルに分解することで、コードブック順序と変調順序のミスマッチを処理するためのマルチコードブックアライメント機構も導入されている。
論文 参考訳(メタデータ) (2025-10-21T13:02:35Z) - VQ-DeepISC: Vector Quantized-Enabled Digital Semantic Communication with Channel Adaptive Image Transmission [8.858565507331395]
意味的特徴の離散化は、意味的コミュニケーションシステムとデジタルコミュニケーションシステムの相互運用を可能にする。
チャネル適応画像伝送を用いたベクトル量子化(VQ)対応ディジタルセマンティック通信システムを提案する。
論文 参考訳(メタデータ) (2025-08-01T02:35:34Z) - Token Communication in the Era of Large Models: An Information Bottleneck-Based Approach [55.861432910722186]
UniToComは、トークンを処理と無線通信の両方の基本的な単位として扱う統一トークン通信パラダイムである。
本稿では,重要な情報を保持するトークンの学習を容易にする生成情報ボトルネック(GenIB)の原理を提案する。
我々は、離散トークンと連続トークンの両方の処理を統合するために、因果変換器に基づくマルチモーダル言語モデル(MLLM)を受信機に採用する。
論文 参考訳(メタデータ) (2025-07-02T14:03:01Z) - Efficient Transformer Encoders for Mask2Former-style models [57.54752243522298]
ECO-M2Fは、入力画像上に条件付きエンコーダ内の隠蔽層数を自己選択する戦略である。
提案手法は、性能を維持しながら、予測エンコーダの計算コストを削減する。
アーキテクチャ構成では柔軟性があり、セグメンテーションタスクを超えてオブジェクト検出まで拡張できる。
論文 参考訳(メタデータ) (2024-04-23T17:26:34Z) - Locality-Aware Generalizable Implicit Neural Representation [54.93702310461174]
一般化可能な暗黙的ニューラル表現(INR)は、単一の連続関数が複数のデータインスタンスを表現することを可能にする。
本稿では、変換器エンコーダと局所性を考慮したINRデコーダを組み合わせた一般化可能なINRのための新しいフレームワークを提案する。
我々のフレームワークは、従来の一般化可能なINRよりも大幅に優れており、下流タスクにおける局所性を考慮した潜在能力の有効性を検証している。
論文 参考訳(メタデータ) (2023-10-09T11:26:58Z) - Transformer-based Joint Source Channel Coding for Textual Semantic
Communication [23.431590618978948]
Space-Air-Ground-Sea統合ネットワークコールにより、ジャミングに対するより堅牢でセキュアな送信技術が要求される。
本稿では,文のモデル化とエンコードに先進的な自然言語処理技術を利用する,ロバスト伝送のためのテキスト意味伝達フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-23T08:42:05Z) - AICT: An Adaptive Image Compression Transformer [18.05997169440533]
我々は、より単純で効果的なTranformerベースのチャネルワイド自動回帰事前モデルを提案し、絶対画像圧縮変換器(ICT)を実現する。
提案したICTは、潜在表現からグローバルとローカルの両方のコンテキストをキャプチャできる。
我々は、サンドイッチのConvNeXtベースのプリ/ポストプロセッサで学習可能なスケーリングモジュールを活用し、よりコンパクトな潜在表現を正確に抽出する。
論文 参考訳(メタデータ) (2023-07-12T11:32:02Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - Transformer Meets DCFAM: A Novel Semantic Segmentation Scheme for
Fine-Resolution Remote Sensing Images [6.171417925832851]
Swin Transformerをバックボーンとして導入し、コンテキスト情報を完全に抽出します。
また、高密度接続特徴集合モジュール(DCFAM)と呼ばれる新しいデコーダを設計し、解像度を復元し、セグメンテーションマップを生成する。
論文 参考訳(メタデータ) (2021-04-25T11:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。