論文の概要: Stealthy Poisoning Attacks Bypass Defenses in Regression Settings
- arxiv url: http://arxiv.org/abs/2601.22308v1
- Date: Thu, 29 Jan 2026 20:50:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.056404
- Title: Stealthy Poisoning Attacks Bypass Defenses in Regression Settings
- Title(参考訳): 自衛隊が自衛隊を退避させ、自衛隊が自衛隊を攻撃
- Authors: Javier Carnerero-Cano, Luis Muñoz-González, Phillippa Spencer, Emil C. Lupu,
- Abstract要約: そこで本研究では,異なる検出度を考慮に入れた新たなステルス攻撃法を提案する。
また,目的の正規化に基づく新しい手法を提案し,有効性と検出可能性の異なるトレードオフを評価する。
- 参考スコア(独自算出の注目度): 5.288693038980939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Regression models are widely used in industrial processes, engineering and in natural and physical sciences, yet their robustness to poisoning has received less attention. When it has, studies often assume unrealistic threat models and are thus less useful in practice. In this paper, we propose a novel optimal stealthy attack formulation that considers different degrees of detectability and show that it bypasses state-of-the-art defenses. We further propose a new methodology based on normalization of objectives to evaluate different trade-offs between effectiveness and detectability. Finally, we develop a novel defense (BayesClean) against stealthy attacks. BayesClean improves on previous defenses when attacks are stealthy and the number of poisoning points is significant.
- Abstract(参考訳): 回帰モデルは産業のプロセス、工学、自然科学、物理科学で広く使われているが、その毒性に対する堅牢性はあまり注目されていない。
その場合、研究はしばしば非現実的な脅威モデルを想定し、実際にはあまり役に立たない。
本稿では,異なる検出度を考慮し,最先端の防御を回避できる新たなステルス攻撃法を提案する。
また,目的の正規化に基づく新しい手法を提案し,有効性と検出可能性の異なるトレードオフを評価する。
最後に、ステルス攻撃に対する新しい防御(BayesClean)を開発する。
BayesCleanは、攻撃がステルス的であり、毒点数が非常に多い場合、過去の防御を改善している。
関連論文リスト
- The Attacker Moves Second: Stronger Adaptive Attacks Bypass Defenses Against Llm Jailbreaks and Prompt Injections [74.60337113759313]
現在のジェイルブレイクとプロンプトインジェクションに対する防御は、通常、有害な攻撃文字列の静的セットに対して評価される。
我々は,この評価プロセスに欠陥があることを論じる。代わりに,攻撃戦略を明示的に修正したアダプティブアタッカーに対する防御を,防衛設計に対抗して評価すべきである。
論文 参考訳(メタデータ) (2025-10-10T05:51:04Z) - DisPatch: Disarming Adversarial Patches in Object Detection with Diffusion Models [8.800216228212824]
最先端のオブジェクト検出器はいまだに敵のパッチ攻撃に弱い。
オブジェクト検出のための最初の拡散型防御フレームワークであるDisdisを紹介する。
DISは、隠蔽攻撃と攻撃生成の両方において、最先端の防御を一貫して上回る。
論文 参考訳(メタデータ) (2025-09-04T18:20:36Z) - Deferred Poisoning: Making the Model More Vulnerable via Hessian Singularization [36.13844441263675]
我々は、より脅迫的なタイプの毒殺攻撃(Dederred Poisoning Attack)を導入する。
この新たな攻撃により、モデルは通常、トレーニングと検証フェーズで機能するが、回避攻撃や自然騒音に非常に敏感になる。
提案手法の理論的および実証的な解析を行い、画像分類タスクの実験を通してその効果を検証した。
論文 参考訳(メタデータ) (2024-11-06T08:27:49Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Certified Robustness to Clean-Label Poisoning Using Diffusion Denoising [56.04951180983087]
我々は、$ell$-normの条件で、クリーンラベル毒殺攻撃に対する認証された防御を提示する。
$randomized$$smoothingによって達成された対向的堅牢性に触発されて、オフザシェルフ拡散復調モデルが、改ざんしたトレーニングデータの衛生化をいかに行うかを示す。
論文 参考訳(メタデータ) (2024-03-18T17:17:07Z) - RECESS Vaccine for Federated Learning: Proactive Defense Against Model Poisoning Attacks [20.55681622921858]
モデル中毒は、フェデレートラーニング(FL)の適用を著しく阻害する
本研究では,モデル中毒に対するRECESSという新しいプロアクティブ・ディフェンスを提案する。
各イテレーションをスコアする従来の方法とは異なり、RECESSはクライアントのパフォーマンス相関を複数のイテレーションで考慮し、信頼スコアを見積もる。
論文 参考訳(メタデータ) (2023-10-09T06:09:01Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Silent Killer: A Stealthy, Clean-Label, Black-Box Backdoor Attack [10.047470656294335]
我々は、クリーンラベルでブラックボックスの設定で動作する新しい攻撃であるSilent Killerを紹介します。
クリーンラベル攻撃の引き金としてユニバーサル・逆境摂動を用いた場合について検討する。
高い成功率を確保するためには、毒を製造するための勾配調整が必要である。
論文 参考訳(メタデータ) (2023-01-05T15:11:05Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。