論文の概要: Exploring Secure Machine Learning Through Payload Injection and FGSM Attacks on ResNet-50
- arxiv url: http://arxiv.org/abs/2501.02147v1
- Date: Sat, 04 Jan 2025 00:21:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:07:46.819897
- Title: Exploring Secure Machine Learning Through Payload Injection and FGSM Attacks on ResNet-50
- Title(参考訳): ResNet-50上でのペイロードインジェクションとFGSMアタックによるセキュア機械学習の探索
- Authors: Umesh Yadav, Suman Niraula, Gaurav Kumar Gupta, Bicky Yadav,
- Abstract要約: 本稿では,ResNet-50画像分類モデルのレジリエンスを,敵攻撃と悪意のあるペイロードインジェクションの2つの重要なセキュリティ脅威下で検討する。
モデルはクリーンな画像上で53.33%の精度を達成する。FGSM摂動を受けると、その全体的な精度は変わらないが、誤った予測に対するモデルの自信は顕著に増加する。
これらの発見は、ハイパフォーマンスなニューラルネットワークの脆弱性を浮き彫りにして、セキュリティクリティカルなアプリケーションのためのより堅牢な防御メカニズムを開発する緊急性を強調している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper investigates the resilience of a ResNet-50 image classification model under two prominent security threats: Fast Gradient Sign Method (FGSM) adversarial attacks and malicious payload injection. Initially, the model attains a 53.33% accuracy on clean images. When subjected to FGSM perturbations, its overall accuracy remains unchanged; however, the model's confidence in incorrect predictions notably increases. Concurrently, a payload injection scheme is successfully executed in 93.33% of the tested samples, revealing how stealthy attacks can manipulate model predictions without degrading visual quality. These findings underscore the vulnerability of even high-performing neural networks and highlight the urgency of developing more robust defense mechanisms for security-critical applications.
- Abstract(参考訳): 本稿では,FGSM(Fast Gradient Sign Method)攻撃と悪意のあるペイロードインジェクションの2つのセキュリティ脅威下でのResNet-50画像分類モデルのレジリエンスについて検討する。
当初は、クリーン画像の精度は53.33%だった。
FGSM摂動を受けると、その全体的な精度は変わらないが、誤った予測に対するモデルの自信は顕著に増加する。
同時に、試験されたサンプルの93.33%でペイロード注入スキームが正常に実行され、視覚的品質を低下させることなく、どのようにステルス攻撃がモデル予測を操作できるかを明らかにする。
これらの発見は、ハイパフォーマンスなニューラルネットワークの脆弱性を浮き彫りにして、セキュリティクリティカルなアプリケーションのためのより堅牢な防御メカニズムを開発する緊急性を強調している。
関連論文リスト
- A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - Adversarial Attacks on Image Classification Models: Analysis and Defense [0.0]
畳み込みニューラルネットワーク(CNN)に基づく画像分類モデルに対する敵対的攻撃
高速勾配符号法 (FGSM) について検討し, 画像分類モデルの性能への影響について検討した。
FGSM攻撃に対する防御機構は、改良された防御蒸留に基づくアプローチに基づいて提案されている。
論文 参考訳(メタデータ) (2023-12-28T08:08:23Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - LPF-Defense: 3D Adversarial Defense based on Frequency Analysis [11.496599300185915]
3Dポイントのクラウド分類は、いまだに敵の攻撃に対して非常に脆弱である。
入力データの中間成分と高周波成分には、より多くの逆の摂動がある。
トレーニング段階での高周波コンテンツを抑えることにより、逆例に対するモデルが改善される。
論文 参考訳(メタデータ) (2022-02-23T03:31:25Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - On Adversarial Robustness of 3D Point Cloud Classification under
Adaptive Attacks [22.618325281125916]
3Dポイントクラウドは、自律運転など、さまざまな安全クリティカルなアプリケーションにおいて重要な役割を果たす。
我々は、最先端の防衛に関する最初のセキュリティ分析を行い、それらを適応的に評価する。
100%適応攻撃の成功率は、現在の対策がまだ脆弱であることを示している。
論文 参考訳(メタデータ) (2020-11-24T06:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。