論文の概要: MixCon: Adjusting the Separability of Data Representations for Harder
Data Recovery
- arxiv url: http://arxiv.org/abs/2010.11463v1
- Date: Thu, 22 Oct 2020 06:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 08:01:23.056803
- Title: MixCon: Adjusting the Separability of Data Representations for Harder
Data Recovery
- Title(参考訳): mixcon: 難しいデータ回復のためのデータ表現の分離性を調整する
- Authors: Xiaoxiao Li, Yangsibo Huang, Binghui Peng, Zhao Song, Kai Li
- Abstract要約: 我々は、データユーティリティと脆弱性間のトレードオフを制御し、攻撃を反転させる手段として、隠れたデータ表現の分離性を調整する客観的関数を設計する。
本手法は,ニューラルネットワークトレーニングにおけるデータ分離可能性の理論的洞察と,モデル反転の硬さに関する結果に動機付けられている。
- 参考スコア(独自算出の注目度): 39.66478626913495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To address the issue that deep neural networks (DNNs) are vulnerable to model
inversion attacks, we design an objective function, which adjusts the
separability of the hidden data representations, as a way to control the
trade-off between data utility and vulnerability to inversion attacks. Our
method is motivated by the theoretical insights of data separability in neural
networking training and results on the hardness of model inversion.
Empirically, by adjusting the separability of data representation, we show that
there exist sweet-spots for data separability such that it is difficult to
recover data during inference while maintaining data utility.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)がモデル反転攻撃に対して脆弱である問題に対処するために、データユーティリティとインバージョン攻撃の間のトレードオフを制御する手段として、隠れたデータ表現の分離性を調整する客観的関数を設計する。
本手法は,ニューラルネットワーク学習におけるデータ分離可能性の理論的な知見とモデル反転の難易度に動機づけられている。
実証的に、データ表現の分離性を調整することにより、データユーティリティを維持しながら推論中にデータの復元が困難となるようなデータ分離性のためのスイートスポットが存在することを示す。
関連論文リスト
- Resilient Peer-to-peer Learning based on Adaptive Aggregation [0.5530212768657544]
ピアツーピアネットワークでの協調学習は、単一障害点を緩和しながら学習の利点を提供する。
敵の労働者は ネットワークに悪意のある情報を注入することで 潜在的な脅威を引き起こす
本稿では,類似性学習プロセスの育成を目的としたレジリエントアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2025-01-08T16:47:45Z) - Capturing the Temporal Dependence of Training Data Influence [100.91355498124527]
我々は、訓練中にデータポイントを除去する影響を定量化する、軌跡特異的な離脱の影響の概念を定式化する。
軌道固有LOOの効率的な近似を可能にする新しい手法であるデータ値埋め込みを提案する。
データバリューの埋め込みは、トレーニングデータの順序付けをキャプチャするので、モデルトレーニングのダイナミクスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-12-12T18:28:55Z) - How more data can hurt: Instability and regularization in next-generation reservoir computing [0.0]
我々は、この現象のより極端なバージョンが、力学系のデータ駆動モデルに現れることを示した。
トレーニングデータの多いフローマップの表現がより良くなったにもかかわらず、NGRCは不条件の積分器を採用でき、安定性を損なうことが判明した。
論文 参考訳(メタデータ) (2024-07-11T16:22:13Z) - Reconstructing Training Data from Model Gradient, Provably [68.21082086264555]
ランダムに選択されたパラメータ値で1つの勾配クエリからトレーニングサンプルを再構成する。
センシティブなトレーニングデータを示す証明可能な攻撃として、われわれの発見はプライバシーに対する深刻な脅威を示唆している。
論文 参考訳(メタデータ) (2022-12-07T15:32:22Z) - NoPeek: Information leakage reduction to share activations in
distributed deep learning [14.09127623892218]
リーク(Leakage、入力と中間表現間の距離相関を用いて測定)は、中間表現からの生データの可逆性に関連するリスクである。
本稿では、生データと中間表現間の距離相関を最小化することで、クライアント間通信における機密データパターンの漏洩を低減する方法を示す。
論文 参考訳(メタデータ) (2020-08-20T19:03:17Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - The Dilemma Between Data Transformations and Adversarial Robustness for
Time Series Application Systems [1.2056495277232115]
アドリシャルな例、あるいは攻撃者が生成したほぼ区別できない入力は、機械学習の精度を著しく低下させる。
この研究は、データ変換が、リカレントニューラルネットワーク上で効果的な敵サンプルを作成する敵の能力にどのように影響するかを考察する。
データ変換技術は、データセットの本質的な次元を近似した場合のみ、逆例に対する脆弱性を低減する。
論文 参考訳(メタデータ) (2020-06-18T22:43:37Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。