論文の概要: Fast Adversarial Label-Flipping Attack on Tabular Data
- arxiv url: http://arxiv.org/abs/2310.10744v1
- Date: Mon, 16 Oct 2023 18:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 19:27:18.303378
- Title: Fast Adversarial Label-Flipping Attack on Tabular Data
- Title(参考訳): 表データに対する高速adversarial label-flipping攻撃
- Authors: Xinglong Chang, Gillian Dobbie, J\"org Wicker
- Abstract要約: ラベルフリップ攻撃では、敵はトレーニングラベルの一部を不正に反転させ、機械学習モデルを侵害する。
本稿では,これらの攻撃が解き易い分類問題として,高度に歪んだデータセットをカモフラージュできるという重要な懸念を提起する。
敵ラベル作成に有効な新たな攻撃手法であるFALFAを提案する。
- 参考スコア(独自算出の注目度): 4.4989885299224515
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning models are increasingly used in fields that require high
reliability such as cybersecurity. However, these models remain vulnerable to
various attacks, among which the adversarial label-flipping attack poses
significant threats. In label-flipping attacks, the adversary maliciously flips
a portion of training labels to compromise the machine learning model. This
paper raises significant concerns as these attacks can camouflage a highly
skewed dataset as an easily solvable classification problem, often misleading
machine learning practitioners into lower defenses and miscalculations of
potential risks. This concern amplifies in tabular data settings, where
identifying true labels requires expertise, allowing malicious label-flipping
attacks to easily slip under the radar. To demonstrate this risk is inherited
in the adversary's objective, we propose FALFA (Fast Adversarial Label-Flipping
Attack), a novel efficient attack for crafting adversarial labels. FALFA is
based on transforming the adversary's objective and employs linear programming
to reduce computational complexity. Using ten real-world tabular datasets, we
demonstrate FALFA's superior attack potential, highlighting the need for robust
defenses against such threats.
- Abstract(参考訳): マシンラーニングモデルは、サイバーセキュリティのような高い信頼性を必要とする分野で、ますます使われています。
しかし、これらのモデルは様々な攻撃に対して脆弱であり、その内、敵対的なラベルフライング攻撃は重大な脅威となる。
ラベルフリッピング攻撃では、悪意のある相手がトレーニングラベルの一部をひっくり返して機械学習モデルに妥協する。
本稿では,これらの攻撃が解き易い分類問題として,高度に歪んだデータセットをカモフラージュし,機械学習の実践者を低い防御と潜在的なリスクの誤計算に導いてしまうことを懸念する。
この懸念は、真のラベルを特定するには専門知識が必要であり、悪意のあるラベルフリッピング攻撃が容易にレーダーの下に滑り込むことができる、表形式のデータ設定を増幅する。
このリスクが敵の目的に受け継がれることを示すため、敵ラベル作成のための新たな効果的な攻撃であるFALFA(Fast Adversarial Label-Flipping Attack)を提案する。
FALFAは敵の目的を変換し、計算複雑性を低減するために線形プログラミングを利用する。
10の実際のグラフデータセットを使用して、FALFAの優れた攻撃可能性を示し、このような脅威に対する堅牢な防御の必要性を強調します。
関連論文リスト
- Mitigating Label Flipping Attacks in Malicious URL Detectors Using
Ensemble Trees [16.16333915007336]
悪意のあるURLは、交通、医療、エネルギー、銀行など、様々な産業で敵対的な機会を提供する。
バックドア攻撃は、ラベルフリップ(LF)など、少数のトレーニングデータラベルを操作することで、良質なラベルを悪意のあるラベルに変更し、その逆を処理します。
本稿では,有毒なラベルの存在を検知するアラームシステムと,オリジナルクラスラベルの発見を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-03-05T14:21:57Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Adversarial training for tabular data with attack propagation [1.9826772682131455]
トレーニングループ内の2つの空間間で攻撃が伝播する新しい形態の対角訓練を提案する。
本手法は中程度の攻撃で約30%の性能低下を防止でき、非常に攻撃的な攻撃では必須であることを示す。
論文 参考訳(メタデータ) (2023-07-28T17:12:46Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Fabricated Flips: Poisoning Federated Learning without Data [9.060263645085564]
フェデレートラーニング(FL)に対する攻撃は、生成されたモデルの品質を大幅に低下させる。
本稿では、悪意のあるデータを合成し、敵対的モデルを構築するデータフリーな未標的攻撃(DFA)を提案する。
DFAは、最先端の未標的攻撃と同じような、あるいはそれ以上の攻撃成功率を達成する。
論文 参考訳(メタデータ) (2022-02-07T20:38:28Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Label-Only Membership Inference Attacks [67.46072950620247]
ラベルのみのメンバシップ推論攻撃を導入する。
我々の攻撃は、摂動下でのモデルが予測するラベルの堅牢性を評価する。
差分プライバシーと(強い)L2正規化を備えたトレーニングモデルは、唯一知られている防衛戦略である。
論文 参考訳(メタデータ) (2020-07-28T15:44:31Z) - Subpopulation Data Poisoning Attacks [18.830579299974072]
機械学習に対する攻撃は、機械学習アルゴリズムが使用するデータの逆修正を誘導し、デプロイ時に出力を選択的に変更する。
本研究では,エフェサブポピュレーションアタック(emphsubpopulation attack)と呼ばれる新たなデータ中毒攻撃を導入する。
サブポピュレーション攻撃のためのモジュラーフレームワークを設計し、異なるビルディングブロックでインスタンス化し、その攻撃がさまざまなデータセットや機械学習モデルに有効であることを示す。
論文 参考訳(メタデータ) (2020-06-24T20:20:52Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。