論文の概要: Training Data Reconstruction: Privacy due to Uncertainty?
- arxiv url: http://arxiv.org/abs/2412.08544v1
- Date: Wed, 11 Dec 2024 17:00:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:02:44.911908
- Title: Training Data Reconstruction: Privacy due to Uncertainty?
- Title(参考訳): データ再構築のトレーニング:不確実性によるプライバシ?
- Authors: Christina Runkel, Kanchana Vaishnavi Gandikota, Jonas Geiping, Carola-Bibiane Schönlieb, Michael Moeller,
- Abstract要約: 我々は、$x$のランダムな初期化が、実際のトレーニングデータセットの一部でなく、有効なトレーニングサンプルに類似した再構築につながることを示す。
アフィン層と一隠れ層を用いた実験により, 自然画像の再構成を行うと, 相手側では, 再構成された画像が実際にトレーニングサンプルの一部であったかどうかを判別できないことが示唆された。
- 参考スコア(独自算出の注目度): 36.941445388011154
- License:
- Abstract: Being able to reconstruct training data from the parameters of a neural network is a major privacy concern. Previous works have shown that reconstructing training data, under certain circumstances, is possible. In this work, we analyse such reconstructions empirically and propose a new formulation of the reconstruction as a solution to a bilevel optimisation problem. We demonstrate that our formulation as well as previous approaches highly depend on the initialisation of the training images $x$ to reconstruct. In particular, we show that a random initialisation of $x$ can lead to reconstructions that resemble valid training samples while not being part of the actual training dataset. Thus, our experiments on affine and one-hidden layer networks suggest that when reconstructing natural images, yet an adversary cannot identify whether reconstructed images have indeed been part of the set of training samples.
- Abstract(参考訳): ニューラルネットワークのパラメータからトレーニングデータを再構築できることは、大きなプライバシー上の懸念事項である。
以前の研究では、特定の状況下でのトレーニングデータの再構築が可能であることが示されている。
本研究では,このような再構築を実証的に分析し,二段階最適化問題の解法として新たな再構築法を提案する。
我々の定式化とそれ以前のアプローチは、再構成のためのトレーニング画像の初期化に大きく依存していることを示します。
特に、$x$のランダムな初期化は、実際のトレーニングデータセットの一部ではなく、有効なトレーニングサンプルに類似した再構築につながることを示す。
そこで,本研究では,アフィン層と一隠れ層を対象とする実験により,自然画像の再構成を行う場合,逆に,再構成された画像が実際にトレーニングサンプルの一部であったかどうかを,相手側では判別できないことが示唆された。
関連論文リスト
- Reconstructing Training Data From Real World Models Trained with Transfer Learning [29.028185455223785]
本稿では,高解像度画像上で訓練されたモデルに対して,現実的な設定でデータ再構成を可能にする新しい手法を提案する。
本手法は実世界のシナリオに対してarXiv:2206.07758の再構成方式を適用する。
そこで本研究では,数千の候補からの良好な復元を識別するためのクラスタリングに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-22T17:59:10Z) - Reconstructing Training Data from Multiclass Neural Networks [20.736732081151363]
トレーニングされたニューラルネットワークのトレーニングセットからサンプルを再構築することは、大きなプライバシー上の懸念事項である。
マルチクラス設定ではトレーニングデータ再構成が可能であり,バイナリ分類の場合よりも再構築品質がさらに高いことを示す。
論文 参考訳(メタデータ) (2023-05-05T08:11:00Z) - Understanding Reconstruction Attacks with the Neural Tangent Kernel and
Dataset Distillation [110.61853418925219]
我々は、データセット再構築攻撃のより強力なバージョンを構築し、無限の幅で設定されたエンペントリアルトレーニングを確実に回復する方法を示す。
理論的にも経験的にも再構成された画像は、データセットの「外部」に傾向を示す。
これらのリコンストラクション攻撃は, テクストデータセット蒸留において, 再構成画像上で再トレーニングを行い, 高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2023-02-02T21:41:59Z) - TexPose: Neural Texture Learning for Self-Supervised 6D Object Pose
Estimation [55.94900327396771]
合成データから6次元オブジェクトポーズ推定のためのニューラルネットワークによるテクスチャ学習を提案する。
実画像からオブジェクトの現実的なテクスチャを予測することを学ぶ。
画素完全合成データからポーズ推定を学習する。
論文 参考訳(メタデータ) (2022-12-25T13:36:32Z) - Reconstructing Training Data from Model Gradient, Provably [68.21082086264555]
ランダムに選択されたパラメータ値で1つの勾配クエリからトレーニングサンプルを再構成する。
センシティブなトレーニングデータを示す証明可能な攻撃として、われわれの発見はプライバシーに対する深刻な脅威を示唆している。
論文 参考訳(メタデータ) (2022-12-07T15:32:22Z) - Reconstructing Training Data from Trained Neural Networks [42.60217236418818]
いくつかのケースでは、トレーニングデータのかなりの部分が、実際にトレーニングされたニューラルネットワーク分類器のパラメータから再構成可能であることを示す。
本稿では,勾配に基づくニューラルネットワークの学習における暗黙バイアスに関する最近の理論的結果から,新たな再構成手法を提案する。
論文 参考訳(メタデータ) (2022-06-15T18:35:16Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。