論文の概要: PPFL-RDSN: Privacy-Preserving Federated Learning-based Residual Dense Spatial Networks for Encrypted Lossy Image Reconstruction
- arxiv url: http://arxiv.org/abs/2507.00230v3
- Date: Mon, 27 Oct 2025 19:09:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.002315
- Title: PPFL-RDSN: Privacy-Preserving Federated Learning-based Residual Dense Spatial Networks for Encrypted Lossy Image Reconstruction
- Title(参考訳): PPFL-RDSN:暗号化されたロシー画像再構成のためのプライバシ保護フェデレーション型残差空間ネットワーク
- Authors: Peilin He, James Joshi,
- Abstract要約: Residual Space Networks (RDSNs) を用いた低解像度入力からの高画質画像の再構成は極めて困難である。
データ漏洩や推論攻撃、高い計算と通信コストなど、プライバシー上の重大なリスクが伴う。
本稿では,暗号化された損失画像再構成に適した,プライバシ保存型フェデレーションベースDenseNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.9193579706947885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing high-quality images from low-resolution inputs using Residual Dense Spatial Networks (RDSNs) is crucial yet challenging. It is even more challenging in centralized training where multiple collaborating parties are involved, as it poses significant privacy risks, including data leakage and inference attacks, as well as high computational and communication costs. We propose a novel Privacy-Preserving Federated Learning-based RDSN (PPFL-RDSN) framework specifically tailored for encrypted lossy image reconstruction. PPFL-RDSN integrates Federated Learning (FL), local differential privacy, and robust model watermarking techniques to ensure that data remains secure on local clients/devices, safeguards privacy-sensitive information, and maintains model authenticity without revealing underlying data. Empirical evaluations show that PPFL-RDSN achieves comparable performance to the state-of-the-art centralized methods while reducing computational burdens, and effectively mitigates security and privacy vulnerabilities, making it a practical solution for secure and privacy-preserving collaborative computer vision applications.
- Abstract(参考訳): RDSN(Residual Dense Space Networks)を用いた低解像度入力からの高画質画像の再構成は極めて困難である。
データ漏洩や推論攻撃、高い計算と通信コストなど、プライバシー上の重大なリスクが伴うため、複数の協力関係の当事者が関与する集中的なトレーニングでは、さらに難しい。
本稿では,新たなプライバシー保護型フェデレーションベースRDSN(PPFL-RDSN)フレームワークを提案する。
PPFL-RDSNは、フェデレートラーニング(FL)、ローカルディファレンシャルプライバシ、堅牢なモデル透かし技術を統合して、ローカルクライアント/デバイスでデータが安全であることを保証し、プライバシに敏感な情報を保護し、基礎となるデータを明らかにすることなくモデルの信頼性を維持する。
実証的な評価では、PPFL-RDSNは計算負担を軽減しつつ最先端の集中型手法と同等のパフォーマンスを達成し、セキュリティとプライバシの脆弱性を効果的に軽減し、セキュアでプライバシに保護された協調型コンピュータビジョンアプリケーションのための実用的なソリューションであることを示している。
関連論文リスト
- Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - Enhancing Privacy in Semantic Communication over Wiretap Channels leveraging Differential Privacy [51.028047763426265]
セマンティック通信(SemCom)は,タスク関連情報に着目して伝送効率を向上させる。
セマンティックリッチなデータをセキュアでないチャネルで送信すると、プライバシのリスクが生じる。
本稿では,セマンティックなセマンティックな特徴を保護するために,差分プライバシー機構を統合した新しいSemComフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-23T08:42:44Z) - FedEM: A Privacy-Preserving Framework for Concurrent Utility Preservation in Federated Learning [17.853502904387376]
Federated Learning (FL)は、分散クライアント間で、ローカルデータを共有せずにモデルの協調的なトレーニングを可能にし、分散システムにおけるプライバシの問題に対処する。
適応雑音注入による制御摂動を組み込んだ新しいアルゴリズムであるフェデレートエラー最小化(FedEM)を提案する。
ベンチマークデータセットの実験結果から、FedEMはプライバシのリスクを著しく低減し、モデルの正確性を保ち、プライバシ保護とユーティリティ保護の堅牢なバランスを達成している。
論文 参考訳(メタデータ) (2025-03-08T02:48:00Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Homomorphic Encryption-Enabled Federated Learning for Privacy-Preserving Intrusion Detection in Resource-Constrained IoV Networks [20.864048794953664]
本稿では,IoV(Internet-of-Vehicles)におけるフェデレーション学習(FL)ベースの侵入検知システム(IDS)におけるデータプライバシ問題に,限られた計算資源で対処する新しい枠組みを提案する。
まず,同相暗号を用いた高効率なフレームワークを提案し,処理に中央集中型サーバにオフロードを必要とするデータを保護する。
我々は、FLベースのシステムの課題を暗号化データで処理するための効果的なトレーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-07-26T04:19:37Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedML-HE: An Efficient Homomorphic-Encryption-Based Privacy-Preserving Federated Learning System [24.39699808493429]
Federated Learningは、ローカルデータではなく、ローカルモデルのアップデートを集約することによって、分散デバイス上の機械学習モデルをトレーニングする。
サーバ上の集約されたローカルモデルは、逆攻撃によって機密性の高い個人情報を明らかにする可能性があるため、プライバシー上の懸念が生じる。
我々は,HedML-HEをベースとした安全なモデルアグリゲーションを実現するための,最初の実践的フェデレーション学習システムを提案する。
論文 参考訳(メタデータ) (2023-03-20T02:44:35Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。