論文の概要: MixCon: Adjusting the Separability of Data Representations for Harder
Data Recovery
- arxiv url: http://arxiv.org/abs/2010.11463v1
- Date: Thu, 22 Oct 2020 06:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 08:01:23.056803
- Title: MixCon: Adjusting the Separability of Data Representations for Harder
Data Recovery
- Title(参考訳): mixcon: 難しいデータ回復のためのデータ表現の分離性を調整する
- Authors: Xiaoxiao Li, Yangsibo Huang, Binghui Peng, Zhao Song, Kai Li
- Abstract要約: 我々は、データユーティリティと脆弱性間のトレードオフを制御し、攻撃を反転させる手段として、隠れたデータ表現の分離性を調整する客観的関数を設計する。
本手法は,ニューラルネットワークトレーニングにおけるデータ分離可能性の理論的洞察と,モデル反転の硬さに関する結果に動機付けられている。
- 参考スコア(独自算出の注目度): 39.66478626913495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To address the issue that deep neural networks (DNNs) are vulnerable to model
inversion attacks, we design an objective function, which adjusts the
separability of the hidden data representations, as a way to control the
trade-off between data utility and vulnerability to inversion attacks. Our
method is motivated by the theoretical insights of data separability in neural
networking training and results on the hardness of model inversion.
Empirically, by adjusting the separability of data representation, we show that
there exist sweet-spots for data separability such that it is difficult to
recover data during inference while maintaining data utility.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)がモデル反転攻撃に対して脆弱である問題に対処するために、データユーティリティとインバージョン攻撃の間のトレードオフを制御する手段として、隠れたデータ表現の分離性を調整する客観的関数を設計する。
本手法は,ニューラルネットワーク学習におけるデータ分離可能性の理論的な知見とモデル反転の難易度に動機づけられている。
実証的に、データ表現の分離性を調整することにより、データユーティリティを維持しながら推論中にデータの復元が困難となるようなデータ分離性のためのスイートスポットが存在することを示す。
関連論文リスト
- How more data can hurt: Instability and regularization in next-generation reservoir computing [0.0]
我々は、この現象のより極端なバージョンが、力学系のデータ駆動モデルに現れることを示した。
トレーニングデータの多いフローマップの表現がより良くなったにもかかわらず、NGRCは不条件の積分器を採用でき、安定性を損なうことが判明した。
論文 参考訳(メタデータ) (2024-07-11T16:22:13Z) - Reconstructing Training Data from Model Gradient, Provably [68.21082086264555]
ランダムに選択されたパラメータ値で1つの勾配クエリからトレーニングサンプルを再構成する。
センシティブなトレーニングデータを示す証明可能な攻撃として、われわれの発見はプライバシーに対する深刻な脅威を示唆している。
論文 参考訳(メタデータ) (2022-12-07T15:32:22Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Joint Inference of Diffusion and Structure in Partially Observed Social
Networks Using Coupled Matrix Factorization [3.399624105745357]
本稿では、部分的に観測されたデータからモデルを学び、観測されていない拡散と構造ネットワークを推定する。
提案手法では,ノードとカスケードプロセスの相互関係を,学習因子と低次元潜在因子を用いて利用した。
これらの合成および実世界のデータセットの実験により、提案手法は見えない社会行動を検出し、リンクを予測し、潜伏した特徴を識別することに成功した。
論文 参考訳(メタデータ) (2020-10-03T17:48:57Z) - NoPeek: Information leakage reduction to share activations in
distributed deep learning [14.09127623892218]
リーク(Leakage、入力と中間表現間の距離相関を用いて測定)は、中間表現からの生データの可逆性に関連するリスクである。
本稿では、生データと中間表現間の距離相関を最小化することで、クライアント間通信における機密データパターンの漏洩を低減する方法を示す。
論文 参考訳(メタデータ) (2020-08-20T19:03:17Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - The Dilemma Between Data Transformations and Adversarial Robustness for
Time Series Application Systems [1.2056495277232115]
アドリシャルな例、あるいは攻撃者が生成したほぼ区別できない入力は、機械学習の精度を著しく低下させる。
この研究は、データ変換が、リカレントニューラルネットワーク上で効果的な敵サンプルを作成する敵の能力にどのように影響するかを考察する。
データ変換技術は、データセットの本質的な次元を近似した場合のみ、逆例に対する脆弱性を低減する。
論文 参考訳(メタデータ) (2020-06-18T22:43:37Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。