論文の概要: CSVAR: Enhancing Visual Privacy in Federated Learning via Adaptive Shuffling Against Overfitting
- arxiv url: http://arxiv.org/abs/2506.01425v1
- Date: Mon, 02 Jun 2025 08:30:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.73264
- Title: CSVAR: Enhancing Visual Privacy in Federated Learning via Adaptive Shuffling Against Overfitting
- Title(参考訳): CSVAR: オーバーフィッティングに対する適応的なシャッフルによるフェデレーション学習における視覚的プライバシ向上
- Authors: Zhuo Chen, Zhenya Ma, Yan Zhang, Donghua Cai, Ye Zhang, Qiushi Li, Yongheng Deng, Ye Guo, Ju Ren, Xuemin, Shen,
- Abstract要約: CSVARは、セキュアなデータ送信と各トレーニングエポックのための難読化画像を生成するためのイメージシャッフルフレームワークである。
それは、過度に適合するプライバシーリークと生画像の送信リスクの両方に対処する。
人間の目に対して高い知覚的曖昧さを示す、視覚的に難解な画像を生成することができる。
- 参考スコア(独自算出の注目度): 27.262703669563155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although federated learning preserves training data within local privacy domains, the aggregated model parameters may still reveal private characteristics. This vulnerability stems from clients' limited training data, which predisposes models to overfitting. Such overfitting enables models to memorize distinctive patterns from training samples, thereby amplifying the success probability of privacy attacks like membership inference. To enhance visual privacy protection in FL, we present CSVAR(Channel-Wise Spatial Image Shuffling with Variance-Guided Adaptive Region Partitioning), a novel image shuffling framework to generate obfuscated images for secure data transmission and each training epoch, addressing both overfitting-induced privacy leaks and raw image transmission risks. CSVAR adopts region-variance as the metric to measure visual privacy sensitivity across image regions. Guided by this, CSVAR adaptively partitions each region into multiple blocks, applying fine-grained partitioning to privacy-sensitive regions with high region-variances for enhancing visual privacy protection and coarse-grained partitioning to privacy-insensitive regions for balancing model utility. In each region, CSVAR then shuffles between blocks in both the spatial domains and chromatic channels to hide visual spatial features and disrupt color distribution. Experimental evaluations conducted on diverse real-world datasets demonstrate that CSVAR is capable of generating visually obfuscated images that exhibit high perceptual ambiguity to human eyes, simultaneously mitigating the effectiveness of adversarial data reconstruction attacks and achieving a good trade-off between visual privacy protection and model utility.
- Abstract(参考訳): フェデレートされた学習は、ローカルプライバシドメイン内のトレーニングデータを保存しますが、集約されたモデルパラメータは、依然としてプライベートな特性を明らかにします。
この脆弱性は、モデルの過度な適合を前提とした、クライアントの限られたトレーニングデータに由来する。
このような過度な適合により、モデルはトレーニングサンプルから特有のパターンを記憶し、メンバーシップ推論のようなプライバシー攻撃の成功確率を高めることができる。
CSVAR(Channel-Wise Space Image Shuffling with Variance-Guided Adaptive Region Partitioning)は,セキュアなデータ伝送のための難読化画像を生成する新しい画像シャッフルフレームワークである。
CSVARは、画像領域間の視覚的プライバシ感度を測定する指標として、領域分散を採用している。
このガイドによって、CSVARは各リージョンを複数のブロックに適応的に分割し、視覚的プライバシ保護の強化とモデルユーティリティのバランスをとるために、大きめのパーティショニングを行う。
各領域において、CSVARは空間領域と色チャネルの両方のブロック間をシャッフルし、視覚的な空間的特徴を隠蔽し、色分布を乱す。
種々の実世界のデータセットを用いて行った実験により、CSVARは人間の目に対して高い知覚的曖昧さを示す視覚的に難解な画像を生成することができ、同時に、敵対的なデータ再構成攻撃の有効性を軽減し、視覚的プライバシ保護とモデルユーティリティの良好なトレードオフを達成することができることが示された。
関連論文リスト
- Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Shadow defense against gradient inversion attack in federated learning [6.708306069847227]
フェデレートラーニング(FL)は、プライバシ保護分散トレーニングのための変革的フレームワークとして登場した。
グラディエント・アタック(GIA)は、訓練画像のトレーニングと再構築に使用される勾配を近似し、患者のプライバシーを盗む。
これらの課題に対処するフレームワークを導入し、機密性の高い領域を特定するために、解釈可能性を備えたシャドウモデルを活用する。
論文 参考訳(メタデータ) (2025-05-30T17:58:57Z) - Enhancing Privacy-Utility Trade-offs to Mitigate Memorization in Diffusion Models [62.979954692036685]
PRSSを導入し, 拡散モデルにおけるクラス化自由誘導手法を改良し, 即時再編成とセマンティック・プロンプト・サーチを統合した。
当社のアプローチは一貫してプライバシーとユーティリティのトレードオフを改善し、新たな最先端技術を確立します。
論文 参考訳(メタデータ) (2025-04-25T02:51:23Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Privacy-preserving datasets by capturing feature distributions with Conditional VAEs [0.11999555634662634]
条件付き変分オートエンコーダ(CVAE)は、大きな事前学習された視覚基盤モデルから抽出された特徴ベクトルに基づいて訓練される。
本手法は, 医用領域と自然画像領域の両方において, 従来のアプローチよりも優れている。
結果は、データスカースおよびプライバシに敏感な環境におけるディープラーニングアプリケーションに大きな影響を与える生成モデルの可能性を強調している。
論文 参考訳(メタデータ) (2024-08-01T15:26:24Z) - You Can Use But Cannot Recognize: Preserving Visual Privacy in Deep Neural Networks [29.03438707988713]
既存のプライバシー保護技術では、そのようなデータを効率的に保護することはできない。
プライバシー保護のための新しいフレームワーク VisualMixer を提案する。
VisualMixerは、ノイズを注入することなく、空間領域と色チャネル空間のピクセルをシャッフルする。
実世界のデータセットの実験では、VisualMixerは無視できる精度の損失で視覚的プライバシを効果的に保存できることを示した。
論文 参考訳(メタデータ) (2024-04-05T13:49:27Z) - PPIDSG: A Privacy-Preserving Image Distribution Sharing Scheme with GAN
in Federated Learning [2.0507547735926424]
分散学習(FL)は、分散クライアントでのプライバシー保護のための協調トレーニングを可能にするため、注目を集めている。
最近の研究によると、個人データを敵に公開するリスクは依然として残っている。
GAN(PPIDSG)を用いたプライバシー保護型画像配信方式を提案する。
論文 参考訳(メタデータ) (2023-12-16T08:32:29Z) - RecUP-FL: Reconciling Utility and Privacy in Federated Learning via
User-configurable Privacy Defense [9.806681555309519]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協力的にモデルをトレーニングすることを可能にする。
近年の研究では、共有勾配によってプライベート情報が漏洩する可能性があることが示されている。
本稿では、ユーザ指定の機密属性により焦点を絞ることができる、ユーザ設定可能なプライバシ保護(RecUP-FL)を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:59:45Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。