論文の概要: Redactor: Targeted Disinformation Generation using Probabilistic
Decision Boundaries
- arxiv url: http://arxiv.org/abs/2202.02902v1
- Date: Mon, 7 Feb 2022 01:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:07:29.895127
- Title: Redactor: Targeted Disinformation Generation using Probabilistic
Decision Boundaries
- Title(参考訳): リダクタ:確率的決定境界を用いた目標情報生成
- Authors: Geon Heo, Steven Euijong Whang
- Abstract要約: 本研究では,特定のターゲットに対する推論攻撃の精度を下げることが目的である標的偽情報の問題について検討する。
我々は,異なるクラスとしてラベル付けされる入力空間のターゲットに最も近い点を見つけることで,この問題を最もよく解決できることを示す。
また,偽情報を現実的にするための手法も提案する。
- 参考スコア(独自算出の注目度): 7.303121062667876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Information leakage is becoming a critical problem as various information
becomes publicly available by mistake, and machine learning models train on
that data to provide services. As a result, one's private information could
easily be memorized by such trained models. Unfortunately, deleting information
is out of the question as the data is already exposed to the Web or third-party
platforms. Moreover, we cannot necessarily control the labeling process and the
model trainings by other parties either. In this setting, we study the problem
of targeted disinformation where the goal is to lower the accuracy of inference
attacks on a specific target (e.g., a person's profile) only using data
insertion. While our problem is related to data privacy and defenses against
exploratory attacks, our techniques are inspired by targeted data poisoning
attacks with some key differences. We show that our problem is best solved by
finding the closest points to the target in the input space that will be
labeled as a different class. Since we do not control the labeling process, we
instead conservatively estimate the labels probabilistically by combining
decision boundaries of multiple classifiers using data programming techniques.
We also propose techniques for making the disinformation realistic. Our
experiments show that a probabilistic decision boundary can be a good proxy for
labelers, and that our approach outperforms other targeted poisoning methods
when using end-to-end training on real datasets.
- Abstract(参考訳): さまざまな情報が誤って公開され、機械学習モデルがそのデータをトレーニングしてサービスを提供するため、情報漏洩は重要な問題になりつつある。
その結果、個人の情報はそのような訓練されたモデルによって容易に記憶される。
残念ながら、データがすでにWebやサードパーティのプラットフォームに公開されているため、情報の削除は問題外だ。
また,他者によるラベル付けプロセスやモデルトレーニングも必ずしも制御できない。
本研究では,特定の対象(例えば,人物のプロファイル)に対する推論攻撃の精度をデータ挿入のみを用いて低下させることを目標とする,標的不知の問題を考察する。
私たちの問題はデータプライバシや探索攻撃に対する防御に関係していますが、この技術はターゲットとするデータ中毒攻撃に触発され、いくつかの重要な違いがあります。
我々は,異なるクラスとしてラベル付けされる入力空間のターゲットに最も近い点を見つけることで,この問題を最もよく解決できることを示す。
ラベル付け処理を制御しないので、データプログラミング技術を用いて複数の分類器の判定境界を組み合わせ、確率的にラベルを推定する。
また,偽情報を現実的にするための手法も提案する。
実験では,ラベラーにとって確率的決定境界が優れた指標となり得ることを示し,本手法は,実データセットのエンドツーエンドトレーニングを使用する場合の他の標的中毒法よりも優れることを示した。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Data Selection for Transfer Unlearning [14.967546081883034]
我々は、プライバシーアプリケーションに対処しない、リラックスした未学習の定義を提唱する。
補助的な「静的」データセットから関連事例を選択するためのメカニズムを用いた新しい手法を提案する。
提案手法は,複数のデータセットにおいて,ゴールド標準の「エクササイズ・アンラーニング」よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-16T20:09:41Z) - Corrective Machine Unlearning [22.342035149807923]
我々は、未知の操作が学習モデルに与える影響を緩和する問題として、矯正機械学習を定式化する。
削除セットを使わずにスクラッチから再学習するなど、既存の未学習手法の多くは、有効な修正未学習のために、操作されたデータの大部分を識別する必要がある。
選択的シナプス減衰法(Selective Synaptic Dampening)は, 操作したサンプルのごく一部で, 有害な効果を学習することなく, 限られた成功を達成している。
論文 参考訳(メタデータ) (2024-02-21T18:54:37Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - A Survey on Semi-Supervised Learning for Delayed Partially Labelled Data
Streams [10.370629574634092]
本調査は, 半教師付き環境で, 不正なデータを利用する手法に特に注意を払っている。
完全教師付き手法と半教師付き手法の両方に影響を及ぼす遅延ラベル問題について議論する。
論文 参考訳(メタデータ) (2021-06-16T23:14:20Z) - Instance Correction for Learning with Open-set Noisy Labels [145.06552420999986]
オープンセットノイズラベルの処理にはサンプル選択方式を用いる。
廃棄されたデータは間違ったラベルで書かれており、トレーニングには参加していない。
廃棄されたデータのインスタンスを変更して、廃棄されたデータの予測をラベルに一致させる。
論文 参考訳(メタデータ) (2021-06-01T13:05:55Z) - Gradient-based Data Subversion Attack Against Binary Classifiers [9.414651358362391]
本研究では,攻撃者がラベルのラベルに毒を盛り,システムの機能を損なうようなラベル汚染攻撃に焦点を当てる。
我々は、予測ラベルに対する微分可能凸損失関数の勾配をウォームスタートとして利用し、汚染するデータインスタンスの集合を見つけるための異なる戦略を定式化する。
本実験は,提案手法がベースラインより優れ,計算効率が高いことを示す。
論文 参考訳(メタデータ) (2021-05-31T09:04:32Z) - Adversarial Knowledge Transfer from Unlabeled Data [62.97253639100014]
本稿では,インターネット規模の未ラベルデータから知識を伝達し,分類器の性能を向上させるための新しいAdversarial Knowledge Transferフレームワークを提案する。
我々の手法の重要な新しい側面は、ラベル付けされていないソースデータは、ラベル付けされたターゲットデータと異なるクラスであることができ、個別のプリテキストタスクを定義する必要がないことである。
論文 参考訳(メタデータ) (2020-08-13T08:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。