論文の概要: Bandwidth-Agile Image Transmission with Deep Joint Source-Channel Coding
- arxiv url: http://arxiv.org/abs/2009.12480v2
- Date: Mon, 14 Jun 2021 00:37:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 09:15:20.862909
- Title: Bandwidth-Agile Image Transmission with Deep Joint Source-Channel Coding
- Title(参考訳): ディープジョイントソースチャネル符号化による帯域-アジャイル画像伝送
- Authors: David Burth Kurka and Deniz G\"und\"uz
- Abstract要約: 画像が時間や頻度で徐々に層に伝達されるシナリオを考察する。
DeepJSCC-$l$は、畳み込みオートエンコーダを使用する革新的なソリューションである。
DeepJSCC-$l$は、低信号対雑音比(SNR)と小さな帯域幅規則の挑戦において、最先端のデジタルプログレッシブ伝送方式と同等の性能を持つ。
- 参考スコア(独自算出の注目度): 7.081604594416339
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose deep learning based communication methods for adaptive-bandwidth
transmission of images over wireless channels. We consider the scenario in
which images are transmitted progressively in layers over time or frequency,
and such layers can be aggregated by receivers in order to increase the quality
of their reconstructions. We investigate two scenarios, one in which the layers
are sent sequentially, and incrementally contribute to the refinement of a
reconstruction, and another in which the layers are independent and can be
retrieved in any order. Those scenarios correspond to the well known problems
of \textit{successive refinement} and \textit{multiple descriptions},
respectively, in the context of joint source-channel coding (JSCC). We propose
DeepJSCC-$l$, an innovative solution that uses convolutional autoencoders, and
present three architectures with different complexity trade-offs. To the best
of our knowledge, this is the first practical multiple-description JSCC scheme
developed and tested for practical information sources and channels. Numerical
results show that DeepJSCC-$l$ can learn to transmit the source progressively
with negligible losses in the end-to-end performance compared with a single
transmission. Moreover, DeepJSCC-$l$ has comparable performance with state of
the art digital progressive transmission schemes in the challenging low
signal-to-noise ratio (SNR) and small bandwidth regimes, with the additional
advantage of graceful degradation with channel SNR.
- Abstract(参考訳): 本稿では,無線チャネル上の画像の適応帯域幅伝送のための深層学習に基づく通信手法を提案する。
我々は,画像が時間や頻度で順次レイヤに送信されるシナリオを検討し,そのようなレイヤを受信者によって集約することで,復元の質を高めることができる。
レイヤを順次送信するシナリオと,レコンストラクションの洗練に段階的に寄与するシナリオと,レイヤが独立して,任意の順序で取得可能なシナリオの2つについて検討した。
これらのシナリオは、ジョイントソースチャネル符号化(JSCC)の文脈において、よく知られた \textit{successive refinement} と \textit{multiple descriptions} に対応する。
本稿では,畳み込みオートエンコーダを用いた革新的なソリューションであるDeepJSCC-$l$を提案し,複雑さのトレードオフの異なる3つのアーキテクチャを提案する。
我々の知る限り、これは実用的な情報ソースやチャネルのために開発・テストされた、最初の実用的多重記述型JSCCスキームである。
DeepJSCC-$l$は、単一の送信と比較して、エンド・ツー・エンドのパフォーマンスにおいて無視できない損失で、徐々にソースの送信を学習できることを示す。
さらに、DeepJSCC-$l$は、低信号対雑音比(SNR)と小さな帯域幅方式において、デジタルプログレッシブ伝送方式の状況に匹敵する性能を有しており、チャネルSNRによる優雅な劣化の利点もある。
関連論文リスト
- Learned Image Transmission with Hierarchical Variational Autoencoder [28.084648666081943]
画像伝送のための革新的階層型ジョイントソースチャネル符号化(HJSCC)フレームワークを提案する。
提案手法では,送信側のボトムアップパスとトップダウンパスの組み合わせを利用して,元の画像の複数の階層表現を自動回帰的に生成する。
提案手法は, 周波数歪み特性において既存のベースラインより優れ, チャネルノイズに対するロバスト性を維持している。
論文 参考訳(メタデータ) (2024-08-29T08:23:57Z) - Distributed Deep Joint Source-Channel Coding with Decoder-Only Side
Information [6.411633100057159]
本稿では,受信側のみに相関する側情報が存在する場合,ノイズの多い無線チャネル上での低遅延画像伝送について検討する。
本稿では,デコーダのみの側情報をレシーバ側の複数段階に組み込んだ新しいニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-10-06T15:17:45Z) - CommIN: Semantic Image Communications as an Inverse Problem with
INN-Guided Diffusion Models [20.005671042281246]
劣化した再構成画像からの高品質なソース画像の復元を逆問題とするComminを提案する。
極端条件下でのDeepJSCCと比較して,コミンは知覚品質を著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-10-02T12:06:58Z) - High Perceptual Quality Wireless Image Delivery with Denoising Diffusion
Models [10.763194436114194]
深層学習を用いたジョイントソースチャネル符号化(DeepJSCC)によるノイズの多い無線チャネル上の画像伝送問題について検討する。
対象画像のレンジ・ヌル空間分解を利用した新しい手法を提案する。
再建画像の歪みと知覚的品質は,標準的なDeepJSCCや最先端の生成学習法と比較して有意に向上した。
論文 参考訳(メタデータ) (2023-09-27T16:30:59Z) - Joint Channel Estimation and Feedback with Masked Token Transformers in
Massive MIMO Systems [74.52117784544758]
本稿では,CSI行列内の固有周波数領域相関を明らかにするエンコーダデコーダに基づくネットワークを提案する。
エンコーダ・デコーダネットワーク全体がチャネル圧縮に使用される。
提案手法は,共同作業における現状のチャネル推定およびフィードバック技術より優れる。
論文 参考訳(メタデータ) (2023-06-08T06:15:17Z) - Perceptual Learned Source-Channel Coding for High-Fidelity Image
Semantic Transmission [7.692038874196345]
本稿では, 深部JSCCの最適化のために, 対向損失を導入する。
我々の新しい深層JSCCアーキテクチャは、エンコーダ、無線チャネル、デコーダ/ジェネレータ、および識別器を組み合わせたものである。
ユーザスタディでは、知覚的に類似したエンドツーエンドの画像伝送品質を達成することで、約50%の無線チャネル帯域幅コストを節約できることを確認した。
論文 参考訳(メタデータ) (2022-05-26T03:05:13Z) - Adaptive Information Bottleneck Guided Joint Source and Channel Coding
for Image Transmission [132.72277692192878]
画像伝送には適応情報ボトルネック(IB)誘導ジョイントソースとチャネル符号化(AIB-JSCC)が提案されている。
AIB-JSCCの目的は、画像再構成品質を改善しながら伝送速度を下げることである。
実験の結果,AIB-JSCCは送信データ量を大幅に削減し,再現性を向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-03-12T17:44:02Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Channel-Level Variable Quantization Network for Deep Image Compression [50.3174629451739]
チャネルレベルの可変量子化ネットワークを提案し、重要なチャネルに対してより多くの畳み込みを動的に割り当て、無視可能なチャネルに対して退避する。
提案手法は優れた性能を実現し,より優れた視覚的再構成を実現する。
論文 参考訳(メタデータ) (2020-07-15T07:20:39Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。