論文の概要: Privacy-Preserving Semantic Communication over Wiretap Channels with Learnable Differential Privacy
- arxiv url: http://arxiv.org/abs/2510.23274v1
- Date: Mon, 27 Oct 2025 12:34:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.607753
- Title: Privacy-Preserving Semantic Communication over Wiretap Channels with Learnable Differential Privacy
- Title(参考訳): 学習可能な差分プライバシーを持つWiretapチャネル上のセマンティック通信のプライバシー保護
- Authors: Weixuan Chen, Qianqian Yang, Shuo Shao, Shunpu Tang, Zhiguo Shi, Shui Yu,
- Abstract要約: セマンティックコミュニケーション(SemCom)は,タスク関連情報に着目して伝達効率を向上させる。
本稿では,通信路上の画像伝送のためのセキュアなSemComフレームワークを提案する。
同等のセキュリティレベルの下では,LPIPS の 0.06-0.29 と FPPSR の 0.10-0.86 の利点を正統なユーザに対して達成している。
- 参考スコア(独自算出の注目度): 27.586640666837997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While semantic communication (SemCom) improves transmission efficiency by focusing on task-relevant information, it also raises critical privacy concerns. Many existing secure SemCom approaches rely on restrictive or impractical assumptions, such as favorable channel conditions for the legitimate user or prior knowledge of the eavesdropper's model. To address these limitations, this paper proposes a novel secure SemCom framework for image transmission over wiretap channels, leveraging differential privacy (DP) to provide approximate privacy guarantees. Specifically, our approach first extracts disentangled semantic representations from source images using generative adversarial network (GAN) inversion method, and then selectively perturbs private semantic representations with approximate DP noise. Distinct from conventional DP-based protection methods, we introduce DP noise with learnable pattern, instead of traditional white Gaussian or Laplace noise, achieved through adversarial training of neural networks (NNs). This design mitigates the inherent non-invertibility of DP while effectively protecting private information. Moreover, it enables explicitly controllable security levels by adjusting the privacy budget according to specific security requirements, which is not achieved in most existing secure SemCom approaches. Experimental results demonstrate that, compared with the previous DP-based method and direct transmission, the proposed method significantly degrades the reconstruction quality for the eavesdropper, while introducing only slight degradation in task performance. Under comparable security levels, our approach achieves an LPIPS advantage of 0.06-0.29 and an FPPSR advantage of 0.10-0.86 for the legitimate user compared with the previous DP-based method.
- Abstract(参考訳): セマンティックコミュニケーション(SemCom)は、タスク関連情報に着目して送信効率を向上させる一方で、重要なプライバシー上の懸念も引き起こす。
既存のセキュアなSemComアプローチの多くは、正当なユーザのための適切なチャネル条件や、盗聴者のモデルの事前知識など、制限的あるいは非現実的な仮定に依存している。
このような制約に対処するため,本論文では,差分プライバシ(DP)を活用して,適切なプライバシー保証を提供する,セキュアなSemComフレームワークを提案する。
具体的には、まず、GAN(Generative Adversarial Network)インバージョン法を用いて、ソース画像からアンタングル付きセマンティック表現を抽出し、次いで、DPノイズを近似したプライベートセマンティック表現を選択的に摂動する。
従来のDPに基づく保護法とは違い,ニューラルネットワーク(NN)の対角的トレーニングによって達成される従来の白色ガウスノイズやラプラスノイズの代わりに,学習可能なパターンによるDPノイズを導入する。
この設計は、プライベート情報を効果的に保護しつつ、DPの固有の非可逆性を緩和する。
さらに、既存のセキュアなSemComアプローチでは実現されていない、特定のセキュリティ要件に従って、プライバシ予算を調整することで、明示的に制御可能なセキュリティレベルを可能にする。
実験により,従来のDP方式と直接伝送方式と比較して,提案手法はタスク性能をわずかに低下させつつも,盗聴器の復元品質を著しく低下させることを示した。
また,従来のDP法と比較して,LPIPSが0.06-0.29,FPPSRが0.10-0.86であった。
関連論文リスト
- Enhancing Privacy in Semantic Communication over Wiretap Channels leveraging Differential Privacy [51.028047763426265]
セマンティック通信(SemCom)は,タスク関連情報に着目して伝送効率を向上させる。
セマンティックリッチなデータをセキュアでないチャネルで送信すると、プライバシのリスクが生じる。
本稿では,セマンティックなセマンティックな特徴を保護するために,差分プライバシー機構を統合した新しいSemComフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-23T08:42:44Z) - Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Differentially Private Generative Adversarial Networks with Model
Inversion [6.651002556438805]
GAN(Generative Adversarial Network)のトレーニングにおいて機密データを保護するためには,差分プライベート(DP)勾配降下法を用いる。
本稿では,パブリックジェネレータを介して,まずプライベートデータを潜在空間にマッピングするDPMI法を提案する。
Inception Score, Fr'echet Inception Distance, and accuracy under the same privacy guarantee。
論文 参考訳(メタデータ) (2022-01-10T02:26:26Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。