論文の概要: LDP-Slicing: Local Differential Privacy for Images via Randomized Bit-Plane Slicing
- arxiv url: http://arxiv.org/abs/2603.03711v2
- Date: Sat, 07 Mar 2026 05:50:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 12:41:26.141056
- Title: LDP-Slicing: Local Differential Privacy for Images via Randomized Bit-Plane Slicing
- Title(参考訳): LDPスライシング:ランダム化ビットプレーンスライシングによる画像の局所微分プライバシー
- Authors: Yuanming Cao, Chengqi Li, Wenbo He,
- Abstract要約: ローカル微分プライバシ(LDP)は、プライバシ保護機械学習のゴールドスタンダードトラストモデルである。
LDP機構は低次元データのために設計されており、高次元画素空間に適用した場合に顕著な実用性劣化をもたらす。
LDP-Slicingは、このドメインミスマッチを解決する軽量でトレーニング不要なフレームワークです。
- 参考スコア(独自算出の注目度): 6.771655378222877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local Differential Privacy (LDP) is the gold standard trust model for privacy-preserving machine learning by guaranteeing privacy at the data source. However, its application to image data has long been considered impractical due to the high dimensionality of pixel space. Canonical LDP mechanisms are designed for low-dimensional data, resulting in severe utility degradation when applied to high-dimensional pixel spaces. This paper demonstrates that this utility loss is not inherent to LDP, but from its application to an inappropriate data representation. We introduce LDP-Slicing, a lightweight, training-free framework that resolves this domain mismatch. Our key insight is to decompose pixel values into a sequence of binary bit-planes. This transformation allows us to apply the LDP mechanism directly to the bit-level representation. To further strengthen privacy and preserve utility, we integrate a perceptual obfuscation module that mitigates human-perceivable leakage and an optimization-based privacy budget allocation strategy. This pipeline satisfies rigorous pixel-level $\varepsilon$-LDP while producing images that retain high utility for downstream tasks. Extensive experiments on face recognition and image classification demonstrate that LDP-Slicing outperforms existing DP/LDP baselines under comparable privacy budgets, with negligible computational overhead.
- Abstract(参考訳): ローカル微分プライバシ(LDP)は、データソースにおけるプライバシを保証することによって、プライバシ保護機械学習のゴールドスタンダードトラストモデルである。
しかし、画像データへのその応用は、画素空間の高次元性のため、長い間非現実的と考えられてきた。
標準LDP機構は低次元データのために設計されており、高次元画素空間に適用した場合に重大な実用性劣化をもたらす。
本稿では,このユーティリティ損失は LDP に固有のものではなく,不適切なデータ表現への応用であることを示す。
LDP-Slicingは、このドメインミスマッチを解決する軽量でトレーニング不要なフレームワークです。
我々の重要な洞察は、ピクセル値をバイナリビットプレーンのシーケンスに分解することである。
この変換により、ビットレベル表現に直接 LDP 機構を適用することができる。
プライバシーをさらに強化し,実用性を維持するため,人間に認識可能な漏洩を緩和する知覚難読化モジュールと,最適化に基づくプライバシー予算配分戦略を統合した。
このパイプラインは厳しいピクセルレベルの$\varepsilon$-LDPを満たすと同時に、下流タスクに高いユーティリティを保持するイメージを生成する。
顔認識と画像分類に関する大規模な実験は、LCPスライシングが既存のDP/LDPベースラインを同等のプライバシー予算で上回り、計算オーバーヘッドが無視できることを示した。
関連論文リスト
- Local Layer-wise Differential Privacy in Federated Learning [9.065322387043544]
Federated Learning(FL)は、直接的なデータ共有なしに協調的なモデルトレーニングを可能にするが、モデル反転やメンバシップ推論といったプライバシ攻撃には弱いままである。
既存のFLの差分プライバシ(DP)ソリューションは、しばしばモデル全体にわたってノイズを均一に注入し、最適なプライバシとユーティリティのトレードオフを提供しながら、実用性を低下させる。
モデル精度を維持しながらプライバシ保護を最適化するFL用レイヤワイド適応型ノイズ注入機構であるLaDPを提案する。
論文 参考訳(メタデータ) (2026-01-05T02:23:31Z) - Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Private Fine-tuning of Large Language Models with Zeroth-order Optimization [51.19403058739522]
差分的プライベート勾配降下(DP-SGD)により、モデルはプライバシ保護の方法でトレーニングできる。
DP-ZO(DP-ZO)は,ゼロオーダー最適化手法を民営化することで,大規模言語モデルのためのプライベートな微調整フレームワークである。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - Conciliating Privacy and Utility in Data Releases via Individual Differential Privacy and Microaggregation [4.287502453001108]
$epsilon$-Differential Privacy(DP)は、強力なプライバシ保証を提供するよく知られたプライバシモデルである。
被験者にDPと同じ保護を提供しながらデータ歪みを低減させるiDP ($epsilon$-individual differential privacy) を提案する。
本稿では,2次データ解析の精度を著しく低下させることのない保護データを提供しながら,我々のアプローチが強力なプライバシ(小額のepsilon$)を提供することを示す実験について報告する。
論文 参考訳(メタデータ) (2023-12-21T10:23:18Z) - Differential Privacy with Random Projections and Sign Random Projections [37.6593006747285]
iDP-SignRPは個人差分プライバシ設定(iDP)において極めて効果的である
DP-SignOPORPは、標準のDP設定の下で既存のアルゴリズムを大幅に改善する。
論文 参考訳(メタデータ) (2023-05-22T16:33:23Z) - Make Landscape Flatter in Differentially Private Federated Learning [69.78485792860333]
本稿では,DPの負の影響を軽減するために勾配摂動を利用するDP-FedSAMという新しいDPFLアルゴリズムを提案する。
具体的には、DP-FedSAMは、局所的な平坦性モデルと、より優れた安定性と重量頑健性を統合し、DPノイズに対する局所的な更新とロバスト性の小さなノルムをもたらす。
提案アルゴリズムは,DPFLの既存のSOTAベースラインと比較して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2023-03-20T16:27:36Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Lossless Compression of Efficient Private Local Randomizers [55.657133416044104]
Locally Differentially Private (LDP) Reportsは、フェデレーション設定における統計と機械学習の収集に一般的に使用されます。
多くの場合、最もよく知られたldpアルゴリズムは、クライアントデバイスからサーバに強制的に大きなメッセージを送信する必要がある。
これにより、LDPアルゴリズムの通信コストの削減に大きく貢献しています。
論文 参考訳(メタデータ) (2021-02-24T07:04:30Z) - Representation Learning for High-Dimensional Data Collection under Local
Differential Privacy [18.98782927283319]
ローカルディファレンシャルプライバシ(LDP)は、プライバシを保護するための厳格なアプローチを提供する。
既存のLPP機構は低次元データに適用されている。
高次元において、プライバシを誘発するノイズは、データの有用性を大きく損なう。
論文 参考訳(メタデータ) (2020-10-23T15:01:19Z) - Local Differential Privacy for Regret Minimization in Reinforcement
Learning [33.679678503441565]
有限水平マルコフ決定過程(MDP)の文脈におけるプライバシーの研究
ローカルディファレンシャルプライバシ(LDP)フレームワークを活用することで、RLのプライバシの概念を定式化する。
本稿では,$varepsilon$-LDP要求を満たす楽観的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-15T14:13:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。