論文の概要: Multi-hop Deep Joint Source-Channel Coding with Deep Hash Distillation for Semantically Aligned Image Retrieval
- arxiv url: http://arxiv.org/abs/2510.06868v1
- Date: Wed, 08 Oct 2025 10:38:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.438584
- Title: Multi-hop Deep Joint Source-Channel Coding with Deep Hash Distillation for Semantically Aligned Image Retrieval
- Title(参考訳): 重み付き画像検索のための深部ハッシュ蒸留を用いたマルチホップ深部ソースチャネル符号化
- Authors: Didrik Bergström, Deniz Gündüz, Onur Günlü,
- Abstract要約: マルチホップ付加型白色ガウス雑音(AWGN)チャネル上でのディープジョイントソースチャネル符号化(DeepJSCC)による画像伝送について検討する。
我々は,DeepJSCCエンコーダ-デコーダペアと事前学習したディープハッシュ蒸留(DHD)モジュールを,セマンティッククラスタイメージにトレーニングする。
- 参考スコア(独自算出の注目度): 44.79135523069499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider image transmission via deep joint source-channel coding (DeepJSCC) over multi-hop additive white Gaussian noise (AWGN) channels by training a DeepJSCC encoder-decoder pair with a pre-trained deep hash distillation (DHD) module to semantically cluster images, facilitating security-oriented applications through enhanced semantic consistency and improving the perceptual reconstruction quality. We train the DeepJSCC module to both reduce mean square error (MSE) and minimize cosine distance between DHD hashes of source and reconstructed images. Significantly improved perceptual quality as a result of semantic alignment is illustrated for different multi-hop settings, for which classical DeepJSCC may suffer from noise accumulation, measured by the learned perceptual image patch similarity (LPIPS) metric.
- Abstract(参考訳): マルチホップ付加白色ガウス雑音(AWGN)チャネル上でのディープジョイントソースチャネル符号化(DeepJSCC)による画像伝送について検討した。
我々は、平均二乗誤差(MSE)を低減し、ソースと再構成画像のDHDハッシュ間のコサイン距離を最小化するためにDeepJSCCモジュールを訓練する。
従来のDeepJSCCは、LPIPS(Learled Perceptual Image patch similarity)測定値によって測定されるノイズ蓄積に悩まされる可能性がある。
関連論文リスト
- SING: Semantic Image Communications using Null-Space and INN-Guided Diffusion Models [52.40011613324083]
近年, 無線画像伝送において, 共用音源チャネル符号化システム (DeepJSCC) が顕著な性能を発揮している。
既存の手法では、送信された画像とレシーバーの再構成されたバージョンとの間の歪みを最小限に抑えることに重点を置いており、しばしば知覚的品質を見落としている。
逆問題として,破損した再構成画像から高品質な画像の復元を定式化する新しいフレームワークであるSINGを提案する。
論文 参考訳(メタデータ) (2025-03-16T12:32:11Z) - Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - Diffusion-Aided Joint Source Channel Coding For High Realism Wireless Image Transmission [24.372996233209854]
DiffJSCCは条件拡散復調法により高現実性画像を生成する新しいフレームワークである。
768x512ピクセルのコダック画像を3072のシンボルで再現できる。
論文 参考訳(メタデータ) (2024-04-27T00:12:13Z) - High Perceptual Quality Wireless Image Delivery with Denoising Diffusion
Models [10.763194436114194]
深層学習を用いたジョイントソースチャネル符号化(DeepJSCC)によるノイズの多い無線チャネル上の画像伝送問題について検討する。
対象画像のレンジ・ヌル空間分解を利用した新しい手法を提案する。
再建画像の歪みと知覚的品質は,標準的なDeepJSCCや最先端の生成学習法と比較して有意に向上した。
論文 参考訳(メタデータ) (2023-09-27T16:30:59Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Deep Joint Source-Channel Coding with Iterative Source Error Correction [11.41076729592696]
深層学習に基づくジョイントソースチャネル符号(Deep J SCC)に対する反復的ソース誤り訂正(ISEC)復号法を提案する。
チャネルを通じて受信されたノイズワードに対して、Deep J SCCエンコーダとデコーダペアを使用して、コードを反復的に更新する。
提案手法は, チャネルノイズ特性がトレーニング時に使用するものと一致しない場合に, ベースラインよりも信頼性の高いソース再構成結果を生成する。
論文 参考訳(メタデータ) (2023-02-17T22:50:58Z) - Generative Joint Source-Channel Coding for Semantic Image Transmission [29.738666406095074]
ディープニューラルネットワーク(DNN)を用いたJSCCスキームは、無線画像伝送において有望な結果をもたらす。
本稿では,無線画像伝送における深部生成モデル(DGM)の知覚品質を活用する2つの新しいJ SCC方式を提案する。
論文 参考訳(メタデータ) (2022-11-24T19:14:27Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - GAN-Based Multi-View Video Coding with Spatio-Temporal EPI
Reconstruction [19.919826392704472]
GAN(Generative Adrial Network)の画像生成機能を活用した新しい多視点ビデオ符号化手法を提案する。
エンコーダでは,時空間平面画像(EPI)デコーダを構築し,さらに畳み込みネットワークを用いてGANの潜時符号をサイド情報(SI)として抽出する。
側面では、SIと隣接する視点を組み合わせて、GANジェネレータを用いて中間ビューを再構築する。
論文 参考訳(メタデータ) (2022-05-07T08:52:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。