論文の概要: Intermediate Outputs Are More Sensitive Than You Think
- arxiv url: http://arxiv.org/abs/2412.00696v1
- Date: Sun, 01 Dec 2024 06:40:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:51:51.628989
- Title: Intermediate Outputs Are More Sensitive Than You Think
- Title(参考訳): 中間出力は思ったより感性が高い
- Authors: Tao Huang, Qingyu Huang, Jiayang Meng,
- Abstract要約: 本稿では、自由度(DoF)と中間出力の感度に基づいて、深層コンピュータビジョンモデルにおけるプライバシーリスクを測定する新しいアプローチを提案する。
本研究では,各層に保持される情報量を評価するためにDoFを利用するフレームワークを提案し,これをヤコビ行列のランクと組み合わせて入力変動に対する感度を評価する。
- 参考スコア(独自算出の注目度): 3.20091188522012
- License:
- Abstract: The increasing reliance on deep computer vision models that process sensitive data has raised significant privacy concerns, particularly regarding the exposure of intermediate results in hidden layers. While traditional privacy risk assessment techniques focus on protecting overall model outputs, they often overlook vulnerabilities within these intermediate representations. Current privacy risk assessment techniques typically rely on specific attack simulations to assess risk, which can be computationally expensive and incomplete. This paper introduces a novel approach to measuring privacy risks in deep computer vision models based on the Degrees of Freedom (DoF) and sensitivity of intermediate outputs, without requiring adversarial attack simulations. We propose a framework that leverages DoF to evaluate the amount of information retained in each layer and combines this with the rank of the Jacobian matrix to assess sensitivity to input variations. This dual analysis enables systematic measurement of privacy risks at various model layers. Our experimental validation on real-world datasets demonstrates the effectiveness of this approach in providing deeper insights into privacy risks associated with intermediate representations.
- Abstract(参考訳): 機密データを処理するディープ・コンピュータ・ビジョン・モデルへの依存度が高まるにつれ、特に隠れた層に中間結果が露出するというプライバシーの懸念が高まっている。
従来のプライバシリスク評価技術は、全体的なモデル出力を保護することに重点を置いているが、これらの中間表現内の脆弱性を見落としていることが多い。
現在のプライバシリスク評価技術は一般的に、計算コストが高く不完全なリスクを評価するために、特定の攻撃シミュレーションに頼っている。
本稿では,攻撃シミュレーションを必要とせず,自由度(DoF)と中間出力の感度に基づいて,深層コンピュータビジョンモデルにおけるプライバシーリスクを測定する新しい手法を提案する。
本研究では,各層に保持される情報量を評価するためにDoFを利用するフレームワークを提案し,これをヤコビ行列のランクと組み合わせて入力変動に対する感度を評価する。
この二重解析は、様々なモデル層におけるプライバシーリスクの体系的な測定を可能にする。
実世界のデータセットに対する実験的な検証は、中間表現に関連するプライバシーリスクに関する深い洞察を提供する上で、このアプローチの有効性を示すものである。
関連論文リスト
- Empirical Privacy Evaluations of Generative and Predictive Machine Learning Models -- A review and challenges for practice [0.3069335774032178]
生成技術を展開する前に、生成した合成データに関連するプライバシーリスクを実証的に評価することが重要である。
本稿では,機械学習に基づく生成および予測モデルにおける経験的プライバシ評価の基礎となる概念と前提について概説する。
論文 参考訳(メタデータ) (2024-11-19T12:19:28Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Noisy Neighbors: Efficient membership inference attacks against LLMs [2.666596421430287]
本稿では,組込み空間に雑音を付加することにより,対象試料のテクストノイズを発生させる効率的な手法を提案する。
提案手法はシャドウモデルの有効性と密に一致し,実際のプライバシー監査シナリオにおけるユーザビリティを示す。
論文 参考訳(メタデータ) (2024-06-24T12:02:20Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Privacy-Preserving Gaze Data Streaming in Immersive Interactive Virtual Reality: Robustness and User Experience [11.130411904676095]
アイトラッキングデータが露出すれば、再識別攻撃に使用できる。
対話型VRアプリケーションのためのリアルタイムプライバシメカニズムを評価する手法を開発した。
論文 参考訳(メタデータ) (2024-02-12T14:53:12Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Systematic Evaluation of Privacy Risks of Machine Learning Models [41.017707772150835]
メンバーシップ推論攻撃に対する事前の取り組みは、プライバシーリスクを著しく過小評価する可能性があることを示す。
まず、既存の非ニューラルネットワークベースの推論攻撃を改善することで、メンバーシップ推論のプライバシリスクをベンチマークする。
次に、プライバシリスクスコアと呼ばれる新しい指標を定式化し、導出することで、詳細なプライバシ分析のための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-03-24T00:53:53Z) - Deep Survival Machines: Fully Parametric Survival Regression and
Representation Learning for Censored Data with Competing Risks [14.928328404160299]
本稿では,検閲データを用いた時系列予測問題において,相対リスクを推定するための新しいアプローチについて述べる。
我々のアプローチは、基礎となる生存分布の一定の比例的ハザードの強い仮定を必要としない。
これは検閲の有無で競合するリスクを伴う生存時間を完全にパラメトリックに推定する最初の作品である。
論文 参考訳(メタデータ) (2020-03-02T20:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。