論文の概要: InfoDecom: Decomposing Information for Defending against Privacy Leakage in Split Inference
- arxiv url: http://arxiv.org/abs/2511.13365v1
- Date: Mon, 17 Nov 2025 13:36:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.234873
- Title: InfoDecom: Decomposing Information for Defending against Privacy Leakage in Split Inference
- Title(参考訳): InfoDecom:スプリット推論におけるプライバシ漏洩防止のための情報を分解する
- Authors: Ruijun Deng, Zhihui Lu, Qiang Duan,
- Abstract要約: 分割推論(SI)により、ユーザは生データを直接送信することなく、ディープラーニング(DL)サービスにアクセスできるようになる。
データ再構築アタック(DRA)は、クライアントからサーバに送信されたスマッシュされたデータから元の入力を復元する。
本稿では,まず冗長な情報を分解して除去し,理論的に保証されたプライバシを提供するために校正されたノイズを注入する防衛フレームワークInfoDecomを提案する。
- 参考スコア(独自算出の注目度): 1.012886157573601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split inference (SI) enables users to access deep learning (DL) services without directly transmitting raw data. However, recent studies reveal that data reconstruction attacks (DRAs) can recover the original inputs from the smashed data sent from the client to the server, leading to significant privacy leakage. While various defenses have been proposed, they often result in substantial utility degradation, particularly when the client-side model is shallow. We identify a key cause of this trade-off: existing defenses apply excessive perturbation to redundant information in the smashed data. To address this issue in computer vision tasks, we propose InfoDecom, a defense framework that first decomposes and removes redundant information and then injects noise calibrated to provide theoretically guaranteed privacy. Experiments demonstrate that InfoDecom achieves a superior utility-privacy trade-off compared to existing baselines. The code and the appendix are available at https://github.com/SASA-cloud/InfoDecom.
- Abstract(参考訳): 分割推論(SI)により、ユーザは生データを直接送信することなく、ディープラーニング(DL)サービスにアクセスできるようになる。
しかし、最近の研究では、データ再構成攻撃(DRA)がクライアントからサーバに送信されたスマッシュデータから元の入力を復元できることが判明し、プライバシの重大な漏洩につながった。
様々な防御策が提案されているが、特にクライアント側モデルが浅い場合、実用性は著しく低下することが多い。
既存の防衛は、スマッシュされたデータの冗長な情報に過剰な摂動を適用します。
コンピュータビジョンタスクにおけるこの問題に対処するため,我々はまず冗長な情報を分解して除去し,理論的に保証されたプライバシーを提供するために校正されたノイズを注入する防衛フレームワークInfoDecomを提案する。
InfoDecomは既存のベースラインよりも優れたユーティリティとプライバシのトレードオフを実現している。
コードと付録はhttps://github.com/SASA-cloud/InfoDecom.comから入手できる。
関連論文リスト
- Quantifying Privacy Leakage in Split Inference via Fisher-Approximated Shannon Information Analysis [1.4972864129791565]
分割推論(SI)は、ディープニューラルネットワークを分散サブモデルに分割することで、プライバシ保護による協調学習を可能にする。
敵の攻撃防御ゲームに関する広範な研究にもかかわらず、プライバシーリスクの基本的な分析には欠点が残っている。
本稿では,情報理論を用いたプライバシー漏洩定量化の理論的枠組みを確立し,これを敵の確実性として定義し,平均ケースと最悪のエラー境界の両方を導出する。
論文 参考訳(メタデータ) (2025-04-14T09:19:06Z) - CRFU: Compressive Representation Forgetting Against Privacy Leakage on Machine Unlearning [14.061404670832097]
効果的なアンラーニング方法は、訓練されたモデルから指定されたデータの情報を除去し、アンラーニングの前後で同じ入力に対して異なる出力を出力する。
本研究では,非学習者のプライバシー漏洩を防ぐためにCRFU(Compressive Representation Forgetting Unlearning scheme)を導入する。
論文 参考訳(メタデータ) (2025-02-27T05:59:02Z) - Defending Our Privacy With Backdoors [29.722113621868978]
本稿では,視覚言語モデルから個人情報を除去するためのバックドア攻撃に基づく,容易かつ効果的な防御手法を提案する。
具体的には, テキストエンコーダにバックドアを戦略的に挿入することにより, センシティブなフレーズの埋め込みを, 人名ではなく「人」の言葉と整合させる。
このアプローチは、バックドア攻撃に対する新たな"デュアルユース"な視点を提供し、未計算のWebスクラッドデータでトレーニングされたモデル内の個人のプライバシを高めるための、有望な道を示す。
論文 参考訳(メタデータ) (2023-10-12T13:33:04Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - Hiding Visual Information via Obfuscating Adversarial Perturbations [47.315523613407244]
本稿では,データの視覚的プライバシを保護するために,敵対的な視覚情報隠蔽手法を提案する。
具体的には、データの視覚情報を隠蔽する難読化対向摂動を生成する。
認識・分類タスクの実験結果から,提案手法が視覚情報を効果的に隠蔽できることが示唆された。
論文 参考訳(メタデータ) (2022-09-30T08:23:26Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Privacy in Deep Learning: A Survey [16.278779275923448]
多くの分野でのディープラーニングの継続的な進歩は、プロダクションシステムにDeep Neural Networks(DNN)の採用につながっている。
大規模なデータセットと高い計算能力がこれらの進歩の主な貢献者である。
このデータはさまざまな脆弱性によって誤用または漏洩される可能性があるため、プライバシー上の深刻な懸念が生じる。
論文 参考訳(メタデータ) (2020-04-25T23:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。