論文の概要: Attacks on the neural network and defense methods
- arxiv url: http://arxiv.org/abs/2412.20529v1
- Date: Sun, 29 Dec 2024 17:33:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:01:50.536342
- Title: Attacks on the neural network and defense methods
- Title(参考訳): ニューラルネットワークの攻撃と防御方法
- Authors: A. Korenev, G. Belokrylov, B. Lodonova, A. Novokhrestov,
- Abstract要約: 本稿では、音声データに基づいてトレーニングされたニューラルネットワークに対する攻撃の使用と、これらの攻撃に対する防御方法について論じる。
FGSM、PGD、CW攻撃、およびデータ中毒について検討する。
攻撃アプリケーションのフレームワーク内で得られた精度指標を提示する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This article will discuss the use of attacks on a neural network trained on audio data, as well as possible methods of protection against these attacks. FGSM, PGD and CW attacks, as well as data poisoning, will be considered. Within the framework of protection, Art-IBM and advertorch libraries will be considered. The obtained accuracy metrics within the framework of attack applications are presented
- Abstract(参考訳): 本稿では、音声データに基づいてトレーニングされたニューラルネットワークに対する攻撃の使用と、これらの攻撃に対する防御方法について論じる。
FGSM、PGD、CW攻撃、およびデータ中毒について検討する。
保護のフレームワークの中では、Art-IBMとAdvertorchライブラリが検討される。
攻撃アプリケーションのフレームワーク内で得られた精度指標を提示する。
関連論文リスト
- SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - A Comparative Study of Watering Hole Attack Detection Using Supervised Neural Network [0.0]
本研究では、これらの攻撃を検知・防止するために、教師付きニューラルネットワークを用いた「水穴攻撃」として知られる悪質な戦術について検討する。
ニューラルネットワークは、そのような攻撃に関連するウェブサイトの行動とネットワークトラフィックのパターンを特定する。
予防に関して言えば、このモデルは95%の攻撃をうまく停止し、堅牢なユーザー保護を提供する。
論文 参考訳(メタデータ) (2023-11-25T13:30:03Z) - Denoising Autoencoder-based Defensive Distillation as an Adversarial
Robustness Algorithm [0.0]
敵対的攻撃はディープニューラルネットワーク(DNN)の堅牢性を著しく脅かす
本研究は, 防衛蒸留機構をデノナイジングオートエンコーダ(DAE)と組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-28T11:34:54Z) - Universal Detection of Backdoor Attacks via Density-based Clustering and
Centroids Analysis [24.953032059932525]
クラスタリングとセントロイド分析(CCA-UD)に基づくバックドア攻撃に対するユニバーサルディフェンスを提案する。
防御の目的は、ディープラーニングモデルがトレーニングデータセットを検査することでバックドア攻撃の対象になるかどうかを明らかにすることである。
論文 参考訳(メタデータ) (2023-01-11T16:31:38Z) - A Review of Adversarial Attack and Defense for Classification Methods [78.50824774203495]
本稿では,敵対的事例の生成と保護に焦点をあてる。
この論文は、多くの統計学者が、この重要かつエキサイティングな分野において、敵の事例を生成・防御することを奨励するものである。
論文 参考訳(メタデータ) (2021-11-18T22:13:43Z) - Traceback of Data Poisoning Attacks in Neural Networks [24.571668412312196]
深層ニューラルネットワークに対する毒物攻撃のための法医学的トレースバックツールの開発における当社の取り組みについて述べる。
学習サンプルをトリムする新たな反復的クラスタリングおよびプルーニングソリューションを提案する。
筆者らは,3種類の汚泥(バックドア)中毒と3種類のクリーンラベル中毒に対して,本システムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2021-10-13T17:39:18Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - A Framework for Enhancing Deep Neural Networks Against Adversarial
Malware [31.026476033245764]
敵のマルウェア回避攻撃に対するディープニューラルネットワークの堅牢性を高めるための防御フレームワークを提案する。
このフレームワークはAICSの2019年のチャレンジに76.02%の精度で勝利し、攻撃者(すなわちチャレンジオーガナイザ)はフレームワークや防御を知らないし、我々(ディフェンダー)も攻撃を知らない。
論文 参考訳(メタデータ) (2020-04-15T07:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。