論文の概要: Temporal Robustness against Data Poisoning
- arxiv url: http://arxiv.org/abs/2302.03684v1
- Date: Tue, 7 Feb 2023 18:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 15:12:45.955740
- Title: Temporal Robustness against Data Poisoning
- Title(参考訳): データ中毒に対する時間的ロバスト性
- Authors: Wenxiao Wang, Soheil Feizi
- Abstract要約: データ中毒は、敵が悪意あるデータを挿入して、機械学習アルゴリズムの動作を操作するトレーニングデータを削除したケースを考慮に入れている。
データ中毒の伝統的な脅威モデルでは、1つの測定値、有毒なサンプルの数が中心になっている。
データ中毒の時間的脅威モデルを提案し,攻撃開始期間と攻撃継続期間をそれぞれ測定する2つの新しい指標である耳線と持続期間を導出する。
- 参考スコア(独自算出の注目度): 58.718697580177356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data poisoning considers cases when an adversary maliciously inserts and
removes training data to manipulate the behavior of machine learning
algorithms. Traditional threat models of data poisoning center around a single
metric, the number of poisoned samples. In consequence, existing defenses are
essentially vulnerable in practice when poisoning more samples remains a
feasible option for attackers. To address this issue, we leverage timestamps
denoting the birth dates of data, which are often available but neglected in
the past. Benefiting from these timestamps, we propose a temporal threat model
of data poisoning and derive two novel metrics, earliness and duration, which
respectively measure how long an attack started in advance and how long an
attack lasted. With these metrics, we define the notions of temporal robustness
against data poisoning, providing a meaningful sense of protection even with
unbounded amounts of poisoned samples. We present a benchmark with an
evaluation protocol simulating continuous data collection and periodic
deployments of updated models, thus enabling empirical evaluation of temporal
robustness. Lastly, we develop and also empirically verify a baseline defense,
namely temporal aggregation, offering provable temporal robustness and
highlighting the potential of our temporal modeling of data poisoning.
- Abstract(参考訳): データ中毒は、悪意のある敵が機械学習アルゴリズムの振る舞いを操作するためにトレーニングデータを挿入して削除する場合を考える。
データ中毒の伝統的な脅威モデルは、汚染されたサンプルの数を1つの指標で表している。
その結果、多くのサンプルを毒殺することが攻撃者にとって可能な選択肢である場合、既存の防御は本質的に脆弱である。
この問題に対処するために、私たちはデータの生年月日を示すタイムスタンプを活用しています。
これらのタイムスタンプの利点を生かして,データ中毒の時間的脅威モデルを提案し,攻撃開始日数と攻撃継続日数をそれぞれ測定した2つの新しい指標,アールネスと持続日数を導出する。
これらの指標を用いて,データ中毒に対する時間的ロバスト性の概念を定義し,有意な保護感を与える。
本稿では,更新モデルの連続データ収集と周期的展開をシミュレートした評価プロトコルを用いて,時間的ロバスト性の実証評価を行う。
最後に、時間的アグリゲーション(時間的アグリゲーション)というベースラインディフェンスを開発し、実証的に検証し、実証可能な時間的ロバスト性を提供し、データ中毒の時間的モデリングの可能性を強調した。
関連論文リスト
- CenTime: Event-Conditional Modelling of Censoring in Survival Analysis [49.44664144472712]
CenTimeは、イベントへの時間を直接見積もる、サバイバル分析の新しいアプローチである。
本手法は,非検閲データが少ない場合でも,堅牢なイベント条件検閲機構を特徴とする。
以上の結果から,CenTimeは同等の性能を維持しつつ,死までの時間を予測する上で,最先端のパフォーマンスを提供することがわかった。
論文 参考訳(メタデータ) (2023-09-07T17:07:33Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Exploring the Limits of Model-Targeted Indiscriminate Data Poisoning
Attacks [31.339252233416477]
対象パラメータに対するデータ中毒攻撃の本質的な限界を探索するための技術ツールとして,モデル中毒の到達可能性の概念を紹介した。
我々は、一般的なMLモデルの中で驚くべき位相遷移現象を確立し、定量化するために、容易に計算可能なしきい値を得る。
我々の研究は, 有毒比がもたらす重要な役割を強調し, データ中毒における既存の経験的結果, 攻撃, 緩和戦略に関する新たな知見を隠蔽する。
論文 参考訳(メタデータ) (2023-03-07T01:55:26Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Defening against Adversarial Denial-of-Service Attacks [0.0]
データ中毒は、機械学習とデータ駆動技術に対する最も関連するセキュリティ脅威の1つです。
我々は,dos有毒なインスタンスを検出する新しい手法を提案する。
2つのdos毒殺攻撃と7つのデータセットに対する我々の防御を評価し、毒殺事例を確実に特定できることを確認します。
論文 参考訳(メタデータ) (2021-04-14T09:52:36Z) - Defending Regression Learners Against Poisoning Attacks [25.06658793731661]
N-LIDと呼ばれる新しい局所固有次元(LID)に基づく測度を導入し,その近傍データ点のLIDの局所偏差を測定する。
N-LIDは、正常なサンプルから有毒なサンプルを識別し、攻撃者を仮定しないN-LIDベースの防御アプローチを提案する。
提案した防御機構は,予測精度(未固定リッジモデルと比較して最大76%低いMSE)とランニング時間において,より優れることを示す。
論文 参考訳(メタデータ) (2020-08-21T03:02:58Z) - Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and
Data Poisoning Attacks [74.88735178536159]
データ中毒は、モデル盗難から敵の攻撃まで、脅威の中で一番の懸念事項だ。
データ中毒やバックドア攻撃は、テスト設定のバリエーションに非常に敏感である。
厳格なテストを適用して、それらを恐れるべき程度を判断します。
論文 参考訳(メタデータ) (2020-06-22T18:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。