論文の概要: Approaching the Harm of Gradient Attacks While Only Flipping Labels
- arxiv url: http://arxiv.org/abs/2503.00140v1
- Date: Fri, 28 Feb 2025 19:35:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:25:44.859623
- Title: Approaching the Harm of Gradient Attacks While Only Flipping Labels
- Title(参考訳): ラベルを浮き彫りながらグラディエントアタックのハームに近づく
- Authors: Abdessamad El-Kabid, El-Mahdi El-Mhamdi,
- Abstract要約: この研究はラベルフリップ攻撃の新たな形式化を導入し、攻撃者に最適化された損失関数を導出する。
ラベルのフリップだけでアベイラビリティーアタックの最初の証拠を提供する。
我々は、攻撃者がより多くのEmphwriteアクセスから得るものと、彼らがより多くのEmphflipping予算から得るものとの間の興味深い相互作用に光を当てた。
- 参考スコア(独自算出の注目度): 2.677995462843075
- License:
- Abstract: Availability attacks are one of the strongest forms of training-phase attacks in machine learning, making the model unusable. While prior work in distributed ML has demonstrated such effect via gradient attacks and, more recently, data poisoning, we ask: can similar damage be inflicted solely by flipping training labels, without altering features? In this work, we introduce a novel formalization of label flipping attacks and derive an attacker-optimized loss function that better illustrates label flipping capabilities. To compare the damaging effect of label flipping with that of gradient attacks, we use a setting that allows us to compare their \emph{writing power} on the ML model. Our contribution is threefold, (1) we provide the first evidence for an availability attack through label flipping alone, (2) we shed light on an interesting interplay between what the attacker gains from more \emph{write access} versus what they gain from more \emph{flipping budget} and (3) we compare the power of targeted label flipping attack to that of an untargeted label flipping attack.
- Abstract(参考訳): アベイラビリティーアタックは、機械学習におけるトレーニングフェーズアタックの最も強力な形態の1つであり、モデルを使用不能にする。
分散MLにおける以前の作業では、勾配攻撃や、より最近のデータ中毒による影響が示されていたが、私たちは次のような質問をした。
本研究では,ラベルフリップ攻撃の新たな形式化を導入し,ラベルフリップ機能を示すアタッカー最適化損失関数を導出する。
ラベルフリップと勾配攻撃の損傷効果を比較するために,MLモデル上でのemph{writing power}を比較可能な設定を用いる。
1)ラベルフリップによるアベイラビリティアタックの最初の証拠として,(2) ラベルフリップによるアベイラビリティアタック,(2) 攻撃者がより多くの \emph{write access} から得るものと,さらに多くの \emph{flipping budget} から得るものとの興味深い相互作用,(3) ターゲットラベルフリップアタックのパワーと未ターゲットラベルフリップアタックのパワーを比較した。
関連論文リスト
- Clean-image Backdoor Attacks [34.051173092777844]
本稿では,バックドアが不正確なラベルで注入可能であることを明らかにするクリーンイメージバックドア攻撃を提案する。
私たちの攻撃では、攻撃者はまず、トレーニングイメージを2つの部分に分割するトリガー機能を探します。
バックドアは、毒データで訓練された後、最終的にターゲットモデルに埋め込まれる。
論文 参考訳(メタデータ) (2024-03-22T07:47:13Z) - Vision-LLMs Can Fool Themselves with Self-Generated Typographic Attacks [58.10730906004818]
画像に誤解を招くテキストを追加するタイポグラフィー攻撃は、視覚言語モデル(LVLM)を欺くことができる
実験の結果,これらの攻撃は分類性能を最大60%低下させることがわかった。
論文 参考訳(メタデータ) (2024-02-01T14:41:20Z) - Fast Adversarial Label-Flipping Attack on Tabular Data [4.4989885299224515]
ラベルフリップ攻撃では、敵はトレーニングラベルの一部を不正に反転させ、機械学習モデルを侵害する。
本稿では,これらの攻撃が解き易い分類問題として,高度に歪んだデータセットをカモフラージュできるという重要な懸念を提起する。
敵ラベル作成に有効な新たな攻撃手法であるFALFAを提案する。
論文 参考訳(メタデータ) (2023-10-16T18:20:44Z) - Label Inference Attack against Split Learning under Regression Setting [24.287752556622312]
回帰モデルのシナリオにおいて,プライベートラベルが連続数である場合の漏洩について検討する。
グラデーション情報と追加学習正規化目標を統合した,新たな学習ベースアタックを提案する。
論文 参考訳(メタデータ) (2023-01-18T03:17:24Z) - Triggerless Backdoor Attack for NLP Tasks with Clean Labels [31.308324978194637]
バックドア攻撃で有毒なデータを構築するための標準的な戦略は、選択した文にトリガーを挿入し、元のラベルをターゲットラベルに変更することである。
この戦略は、トリガーとラベルの両方の観点から容易に検出されるという深刻な欠陥を伴っている。
そこで本研究では,外部トリガーを必要としないテキストバックドア攻撃を行う新たな手法を提案する。
論文 参考訳(メタデータ) (2021-11-15T18:36:25Z) - Indiscriminate Poisoning Attacks Are Shortcuts [77.38947817228656]
その結果, 標的ラベルを付与した場合, 進行性毒素攻撃の摂動は, ほぼ分離可能であることがわかった。
このような合成摂動は、故意に作られた攻撃と同じくらい強力であることを示す。
我々の発見は、アンフショートカット学習の問題が以前考えられていたよりも深刻であることを示唆している。
論文 参考訳(メタデータ) (2021-11-01T12:44:26Z) - Staircase Sign Method for Boosting Adversarial Attacks [123.19227129979943]
トランスファーベースの攻撃の敵の例を作るのは難しいし、研究のホットスポットだ。
そこで本研究では,この問題を緩和するための新しい階段サイン法(S$2$M)を提案する。
我々の手法は一般に転送ベースの攻撃と統合することができ、計算オーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2021-04-20T02:31:55Z) - Label-Only Membership Inference Attacks [67.46072950620247]
ラベルのみのメンバシップ推論攻撃を導入する。
我々の攻撃は、摂動下でのモデルが予測するラベルの堅牢性を評価する。
差分プライバシーと(強い)L2正規化を備えたトレーニングモデルは、唯一知られている防衛戦略である。
論文 参考訳(メタデータ) (2020-07-28T15:44:31Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z) - Adversarial Fooling Beyond "Flipping the Label" [54.23547006072598]
CNNは、多くの重要なタスクにおいて、人間に近いか、人間のパフォーマンスよりも優れていることを示す。
これらの攻撃は、実際の展開において潜在的に危険である。
異なるCNNアーキテクチャの集合に対するいくつかの重要な敵攻撃を包括的に分析する。
論文 参考訳(メタデータ) (2020-04-27T13:21:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。