論文の概要: Joint Source-Channel-Generation Coding: From Distortion-oriented Reconstruction to Semantic-consistent Generation
- arxiv url: http://arxiv.org/abs/2601.12808v1
- Date: Mon, 19 Jan 2026 08:12:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.8011
- Title: Joint Source-Channel-Generation Coding: From Distortion-oriented Reconstruction to Semantic-consistent Generation
- Title(参考訳): コンジョイントソース・チャネル・ジェネレーション符号化:歪み指向の再構成からセマンティック・一貫性生成へ
- Authors: Tong Wu, Zhiyong Chen, Guo Lu, Li Song, Feng Yang, Meixia Tao, Wenjun Zhang,
- Abstract要約: 本稿では,知覚的再構成から確率的生成へ焦点を移す新しいパラダイムとして,JSCGC(Joint Source-Channel-Generation Coding)を提案する。
JSCGCは意味的品質と意味的忠実性を大幅に改善し、従来の歪み指向J SCC法よりも大幅に向上する。
- 参考スコア(独自算出の注目度): 58.67925548779465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional communication systems, including both separation-based coding and AI-driven joint source-channel coding (JSCC), are largely guided by Shannon's rate-distortion theory. However, relying on generic distortion metrics fails to capture complex human visual perception, often resulting in blurred or unrealistic reconstructions. In this paper, we propose Joint Source-Channel-Generation Coding (JSCGC), a novel paradigm that shifts the focus from deterministic reconstruction to probabilistic generation. JSCGC leverages a generative model at the receiver as a generator rather than a conventional decoder to parameterize the data distribution, enabling direct maximization of mutual information under channel constraints while controlling stochastic sampling to produce outputs residing on the authentic data manifold with high fidelity. We further derive a theoretical lower bound on the maximum semantic inconsistency with given transmitted mutual information, elucidating the fundamental limits of communication in controlling the generative process. Extensive experiments on image transmission demonstrate that JSCGC substantially improves perceptual quality and semantic fidelity, significantly outperforming conventional distortion-oriented JSCC methods.
- Abstract(参考訳): 分離型符号化とAI駆動型ジョイントソースチャネル符号化(JSCC)の両方を含む従来の通信システムは、主にシャノンの速度歪み理論によって導かれる。
しかし、一般的な歪み指標に依存すると、複雑な人間の視覚的知覚を捉えることができず、しばしばぼやけたり非現実的な再構成をもたらす。
本稿では、決定論的再構成から確率的生成へ焦点を移す新しいパラダイムであるJSCGC(Joint Source-Channel-Generation Coding)を提案する。
JSCGCは、受信機における生成モデルを、従来のデコーダではなくジェネレータとして活用し、チャネル制約下での相互情報の直接最大化を可能にし、確率的サンプリングを制御し、信頼度の高いデータ多様体上の出力を生成する。
さらに、生成過程の制御におけるコミュニケーションの基本的限界を解明し、送信された相互情報と最大意味的不整合の理論的下限を導出する。
画像伝達に関する広範囲な実験により、JSCGCは知覚品質と意味的忠実度を大幅に改善し、従来の歪み指向JSCC法よりも大幅に向上することが示された。
関連論文リスト
- Generalization Bounds for Transformer Channel Decoders [61.55280736553095]
本稿では,ECCTの一般化性能を学習理論の観点から検討する。
我々の知る限りでは、この研究はこの種のデコーダに対する最初の理論的一般化保証を提供する。
論文 参考訳(メタデータ) (2026-01-11T15:56:37Z) - DiT-JSCC: Rethinking Deep JSCC with Diffusion Transformers and Semantic Representations [32.904008725578606]
新たなDeep J SCCパラダイムとして、ジェネレーティブジョイントソースチャネルコーディング(GJSCC)が登場した。
本稿では,意味論的優先表現エンコーダと拡散変換器(DiT)に基づく生成復号器を共同で学習できる,新しいGJSCCバックボーンであるDiT-JSCCを提案する。
DiT-JSCCは, 意味的一貫性と視覚的品質の両面で, 特に極端な状況下で, 既存のJ SCC法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2026-01-06T15:42:45Z) - SecDiff: Diffusion-Aided Secure Deep Joint Source-Channel Coding Against Adversarial Attacks [73.41290017870097]
SecDiffは、プラグイン・アンド・プレイの拡散支援デコーディングフレームワークである。
対向無線環境下での深部JSCCの安全性と堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2025-11-03T11:24:06Z) - Channel Fingerprint Construction for Massive MIMO: A Deep Conditional Generative Approach [65.47969413708344]
CF双生児の概念を導入し、条件付き生成拡散モデル(CGDM)を設計する。
本研究では, 粗粒CFに条件付き観測された細粒CFの対数分布に対するエビデンスローバウンド(ELBO)を導出するために, 変分推論手法を用いる。
提案手法は, ベースラインと比較して, 復元性能が著しく向上していることを示す。
論文 参考訳(メタデータ) (2025-05-12T01:36:06Z) - SING: Semantic Image Communications using Null-Space and INN-Guided Diffusion Models [52.40011613324083]
近年, 無線画像伝送において, 共用音源チャネル符号化システム (DeepJSCC) が顕著な性能を発揮している。
既存の手法では、送信された画像とレシーバーの再構成されたバージョンとの間の歪みを最小限に抑えることに重点を置いており、しばしば知覚的品質を見落としている。
逆問題として,破損した再構成画像から高品質な画像の復元を定式化する新しいフレームワークであるSINGを提案する。
論文 参考訳(メタデータ) (2025-03-16T12:32:11Z) - Diffusion-Driven Semantic Communication for Generative Models with Bandwidth Constraints [66.63250537475973]
本稿では,帯域制限付き生成モデルのための,高度なVAEベースの圧縮を用いた拡散駆動型セマンティック通信フレームワークを提案する。
実験の結果,ピーク信号対雑音比 (PSNR) などの画素レベルの指標と,LPIPS (Learning Perceptual Image patch similarity) のような意味的指標が大幅に改善された。
論文 参考訳(メタデータ) (2024-07-26T02:34:25Z) - Rateless Stochastic Coding for Delay-Constrained Semantic Communication [5.882972817816777]
我々は,無作為な観点からのセマンティック・コミュニケーションのためのジョイント・ソース・チャネル・コーディングの問題点を考察する。
本稿では,意味レベルの再構築目的を組み込むことで知覚距離を最小化する,より汎用的なコミュニケーション目的を提案する。
提案手法は, 歪みと知覚のトレードオフを良好に保ちながら, 伝送速度の可変化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-06-28T10:27:06Z) - The Rate-Distortion-Perception-Classification Tradeoff: Joint Source Coding and Modulation via Inverse-Domain GANs [4.735670734773145]
チャネルレート,歪み知覚,分類精度の厳密なトレードオフが存在することを示す。
本稿では,このトレードオフをナビゲートする2つの画像圧縮手法を提案する。
また、提案したID-GANアルゴリズムは、画像の歪み、知覚、分類精度のバランスを保ち、従来の分離法よりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2023-12-22T16:06:43Z) - Generative Joint Source-Channel Coding for Semantic Image Transmission [29.738666406095074]
ディープニューラルネットワーク(DNN)を用いたJSCCスキームは、無線画像伝送において有望な結果をもたらす。
本稿では,無線画像伝送における深部生成モデル(DGM)の知覚品質を活用する2つの新しいJ SCC方式を提案する。
論文 参考訳(メタデータ) (2022-11-24T19:14:27Z) - Nonlinear Transform Source-Channel Coding for Semantic Communications [7.81628437543759]
本稿では,非線形変換の下での音源分布に密に適応できる,高効率なディープジョイントソースチャネル符号化法を提案する。
本モデルでは, 非線形変換を強みとして組み込んで, 音源のセマンティックな特徴を効果的に抽出する。
特に、NTSCC法は、その活発なコンテンツ認識能力のために、将来的なセマンティックコミュニケーションをサポートする可能性がある。
論文 参考訳(メタデータ) (2021-12-21T03:30:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。