論文の概要: Deep Learning Defenses Against Adversarial Examples for Dynamic Risk
Assessment
- arxiv url: http://arxiv.org/abs/2007.01017v1
- Date: Thu, 2 Jul 2020 11:01:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 13:41:53.796117
- Title: Deep Learning Defenses Against Adversarial Examples for Dynamic Risk
Assessment
- Title(参考訳): 動的リスク評価のための敵対的事例に対する深層学習防御
- Authors: Xabier Echeberria-Barrio, Amaia Gil-Lerchundi, Ines
Goicoechea-Telleria and Raul Orduna-Urrutia
- Abstract要約: この種のモデルへの攻撃は容易である、と繰り返し報告されている。
この作業で最も広く知られた攻撃が選択され、いくつかの防御が実施された。
得られた結果は、同様の精度を維持しながら、モデルをより堅牢にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks were first developed decades ago, but it was not until
recently that they started being extensively used, due to their computing power
requirements. Since then, they are increasingly being applied to many fields
and have undergone far-reaching advancements. More importantly, they have been
utilized for critical matters, such as making decisions in healthcare
procedures or autonomous driving, where risk management is crucial. Any
mistakes in the diagnostics or decision-making in these fields could entail
grave accidents, and even death. This is preoccupying, because it has been
repeatedly reported that it is straightforward to attack this type of models.
Thus, these attacks must be studied to be able to assess their risk, and
defenses need to be developed to make models more robust. For this work, the
most widely known attack was selected (adversarial attack) and several defenses
were implemented against it (i.e. adversarial training, dimensionality reduc
tion and prediction similarity). The obtained outcomes make the model more
robust while keeping a similar accuracy. The idea was developed using a breast
cancer dataset and a VGG16 and dense neural network model, but the solutions
could be applied to datasets from other areas and different convolutional and
dense deep neural network models.
- Abstract(参考訳): Deep Neural Networksが最初に開発されたのは数十年前だが、コンピュータのパワー要件のために広く使われるようになったのは、最近になってからである。
それ以来、多くの分野に適用され、広範囲の進歩を遂げてきた。
さらに重要なことは、リスク管理が重要な医療手順や自動運転の意思決定など、重要な問題に利用されています。
これらの分野における診断や意思決定の誤りは、重大な事故や死を伴います。
なぜなら、この種のモデルを攻撃するのは簡単であると繰り返し報告されているからです。
したがって、これらの攻撃はリスクを評価するために研究されなければならず、モデルをより堅牢にするために防御を開発する必要がある。
このために最も広く知られた攻撃が選択され(敵の攻撃)、それに対するいくつかの防御(敵の訓練、次元の再定義、予測類似性)が行われた。
得られた結果は、同様の精度を維持しながら、モデルをより堅牢にする。
このアイデアは、乳がんデータセットとVGG16と高密度ニューラルネットワークモデルを使用して開発されたが、他の領域からのデータセットや、さまざまな畳み込みおよび高密度ニューラルネットワークモデルに適用することができる。
関連論文リスト
- Understanding Deep Learning defenses Against Adversarial Examples
Through Visualizations for Dynamic Risk Assessment [0.0]
対人訓練,次元減少,予測類似性を対人攻撃に対する防御として選択した。
各防御において、元のモデルの挙動は、可視化されたグラフによって対象モデルの振る舞いを表現し、防御されたモデルの挙動と比較された。
論文 参考訳(メタデータ) (2024-02-12T09:05:01Z) - Attacking Byzantine Robust Aggregation in High Dimensions [13.932039723114299]
現代のニューラルネットワークやモデルを訓練するには、通常、高次元ベクトルのサンプルを平均化する必要がある。
ポジショニング攻撃は、モデルをトレーニングするのに使われる平均ベクトルを歪ませたりバイアスしたりし、モデルを特定のパターンを学習させたり、何か役に立つものを学ぶのを防いだりする。
我々は,HIDRAと呼ばれる新たな攻撃が,次元非依存バイアスの主張を覆す強力な防御の実現に有効であることを示す。
論文 参考訳(メタデータ) (2023-12-22T06:25:46Z) - Security and Privacy Challenges in Deep Learning Models [0.0]
ディープラーニングモデルは、モデルのセキュリティとデータのプライバシを侵害するさまざまな攻撃を受けることができる。
モデル抽出攻撃、モデル反転攻撃、および敵攻撃について論じる。
データ中毒攻撃は、トレーニングセットに有害なデータを追加し、学習プロセスを中断し、ディープラーニングモードの信頼性を低下させる。
論文 参考訳(メタデータ) (2023-11-23T00:26:14Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Few-shot Backdoor Defense Using Shapley Estimation [123.56934991060788]
我々は、深層ニューラルネットワークに対するバックドア攻撃を軽減するために、Shapley Pruningと呼ばれる新しいアプローチを開発した。
ShapPruningは、感染した数少ないニューロン(全ニューロンの1%以下)を特定し、モデルの構造と正確性を保護する。
様々な攻撃やタスクに対して,本手法の有効性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2021-12-30T02:27:03Z) - Demystifying the Transferability of Adversarial Attacks in Computer
Networks [23.80086861061094]
CNNベースのモデルは様々な敵攻撃を受ける。
いくつかの敵対的な例は、異なる未知のモデルに対して効果がある可能性がある。
本稿では,CNNモデルによる対向移動性に対するロバスト性を評価する。
論文 参考訳(メタデータ) (2021-10-09T07:20:44Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。