論文の概要: Unintended memorisation of unique features in neural networks
- arxiv url: http://arxiv.org/abs/2205.10079v1
- Date: Fri, 20 May 2022 10:48:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 23:27:57.719256
- Title: Unintended memorisation of unique features in neural networks
- Title(参考訳): ニューラルネットワークにおける独特な特徴の意図しない記憶
- Authors: John Hartley, Sotirios A. Tsaftaris
- Abstract要約: トレーニングデータに1回だけ発生するユニークな特徴は、識別可能な多層パーセプトロンと畳み込みニューラルネットワークによって記憶される。
我々は,モデル出力分布のKL分散度を比較することで,モデルの特異な特徴に対する感度を推定するスコアを開発する。
オーバーフィッティングを防ぐための典型的な戦略は、ユニークな特徴記憶を防ぐものではない。
- 参考スコア(独自算出の注目度): 15.174895411434026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks pose a privacy risk due to their propensity to memorise and
leak training data. We show that unique features occurring only once in
training data are memorised by discriminative multi-layer perceptrons and
convolutional neural networks trained on benchmark imaging datasets. We design
our method for settings where sensitive training data is not available, for
example medical imaging. Our setting knows the unique feature, but not the
training data, model weights or the unique feature's label. We develop a score
estimating a model's sensitivity to a unique feature by comparing the KL
divergences of the model's output distributions given modified
out-of-distribution images. We find that typical strategies to prevent
overfitting do not prevent unique feature memorisation. And that images
containing a unique feature are highly influential, regardless of the influence
the images's other features. We also find a significant variation in
memorisation with training seed. These results imply that neural networks pose
a privacy risk to rarely occurring private information. This risk is more
pronounced in healthcare applications since sensitive patient information can
be memorised when it remains in training data due to an imperfect data
sanitisation process.
- Abstract(参考訳): ニューラルネットワークは、記憶と漏洩トレーニングデータに対する適合性のために、プライバシのリスクを引き起こす。
ベンチマーク画像データセットで訓練された多層パーセプトロンと畳み込みニューラルネットワークによって、トレーニングデータに一度だけ発生するユニークな特徴が記憶されることを示す。
医用画像などセンシティブなトレーニングデータが利用できないような設定のために,本手法を設計する。
私たちの設定はユニークな特徴を知っていますが、トレーニングデータやモデルウェイト、ユニークな機能ラベルなどではありません。
本研究では,モデルの出力分布のkl偏差を比較することにより,モデルの感度をユニークな特徴量に推定するスコアを開発した。
オーバーフィッティングを防ぐための典型的な戦略は、ユニークな特徴の記憶を妨げない。
そして、その特徴を含む画像は、画像の他の特徴の影響にかかわらず、非常に影響力がある。
また,トレーニングシードによる記憶の変化も顕著である。
これらの結果は、ニューラルネットワークが、まれに発生するプライベートな情報に対してプライバシリスクをもたらすことを暗示している。
このリスクは、不完全なデータ洗浄プロセスのためにトレーニングデータに残ると、センシティブな患者情報が記憶されるため、医療アプリケーションではより顕著である。
関連論文リスト
- Accurate Forgetting for All-in-One Image Restoration Model [3.367455972998532]
現在、Machine Unlearningと呼ばれる低価格のスキームは、モデルに記憶されているプライベートデータを忘れている。
このことから,画像復元とセキュリティのギャップを埋めるために,この概念を応用しようと試みている。
論文 参考訳(メタデータ) (2024-09-01T10:14:16Z) - You Can Use But Cannot Recognize: Preserving Visual Privacy in Deep Neural Networks [29.03438707988713]
既存のプライバシー保護技術では、そのようなデータを効率的に保護することはできない。
プライバシー保護のための新しいフレームワーク VisualMixer を提案する。
VisualMixerは、ノイズを注入することなく、空間領域と色チャネル空間のピクセルをシャッフルする。
実世界のデータセットの実験では、VisualMixerは無視できる精度の損失で視覚的プライバシを効果的に保存できることを示した。
論文 参考訳(メタデータ) (2024-04-05T13:49:27Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Reconstructing Training Data from Model Gradient, Provably [68.21082086264555]
ランダムに選択されたパラメータ値で1つの勾配クエリからトレーニングサンプルを再構成する。
センシティブなトレーニングデータを示す証明可能な攻撃として、われわれの発見はプライバシーに対する深刻な脅威を示唆している。
論文 参考訳(メタデータ) (2022-12-07T15:32:22Z) - Measuring Unintended Memorisation of Unique Private Features in Neural
Networks [15.174895411434026]
トレーニングデータに1回だけ発生しても、ニューラルネットワークは意図せずユニークな特徴を記憶している。
ユニークな特徴の例として、トレーニング画像に誤って現れる人物の名前がある。
論文 参考訳(メタデータ) (2022-02-16T14:39:05Z) - Syfer: Neural Obfuscation for Private Data Release [58.490998583666276]
我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。