論文の概要: Artificial Neural Networks and Fault Injection Attacks
- arxiv url: http://arxiv.org/abs/2008.07072v2
- Date: Thu, 11 Feb 2021 16:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 04:18:03.045901
- Title: Artificial Neural Networks and Fault Injection Attacks
- Title(参考訳): 人工ニューラルネットワークとフォールトインジェクション攻撃
- Authors: Shahin Tajik and Fatemeh Ganji
- Abstract要約: この章は、障害注入攻撃に直面した人工知能(AI)とニューラルネットワーク(NN)アクセラレータのセキュリティアセスメントに関するものだ。
これらのプラットフォーム上の資産について論じ、暗号システムの分野でよく研究されているものと比較する。
- 参考スコア(独自算出の注目度): 7.601937548486356
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This chapter is on the security assessment of artificial intelligence (AI)
and neural network (NN) accelerators in the face of fault injection attacks.
More specifically, it discusses the assets on these platforms and compares them
with ones known and well-studied in the field of cryptographic systems. This is
a crucial step that must be taken in order to define the threat models
precisely. With respect to that, fault attacks mounted on NNs and AI
accelerators are explored.
- Abstract(参考訳): この章は、障害注入攻撃に直面した人工知能(AI)とニューラルネットワーク(NN)アクセラレータのセキュリティアセスメントに関するものだ。
具体的には、これらのプラットフォーム上の資産について論じ、暗号システムの分野でよく研究されているものと比較する。
脅威モデルを正確に定義するためには、これは重要なステップです。
それに関して、NNやAIアクセラレーターに搭載された障害攻撃が調査されている。
関連論文リスト
- Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Physical Side-Channel Attacks on Embedded Neural Networks: A Survey [0.32634122554913997]
ニューラルネットワーク(NN)は、あらゆる種類の現実世界のアプリケーションを変換することによって、IoTシステムにおいてユビキタスになることが期待されている。
組み込みNN実装は、Side-Channel Analysis (SCA)攻撃に対して脆弱である。
本稿では,マイクロコントローラおよびFPGA上での組込みNNの実装に対して,最先端の物理的SCA攻撃について検討する。
論文 参考訳(メタデータ) (2021-10-21T17:18:52Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Exploiting Vulnerabilities in Deep Neural Networks: Adversarial and
Fault-Injection Attacks [14.958919450708157]
まず、ニューラルネットワークベースのシステムのセキュリティ攻撃を生成するために悪用できるさまざまな脆弱性について議論します。
次に、DNNに対する既存の逆方向およびフォールトインジェクションに基づく攻撃の概要を示す。
論文 参考訳(メタデータ) (2021-05-05T08:11:03Z) - An Overview of Laser Injection against Embedded Neural Network Models [0.0]
フォールトインジェクション分析(FIA)は、攻撃ベクトルの広いスペクトルで非常に強力であることが知られています。
本稿では,最先端機器によるレーザー注入と,Adversarial Machine Learningの理論的証拠を組み合わせることで,ディープラーニング推論の完全性に対する脅威を浮き彫りにする方法について論じる。
論文 参考訳(メタデータ) (2021-05-04T10:32:30Z) - TANTRA: Timing-Based Adversarial Network Traffic Reshaping Attack [46.79557381882643]
本稿では,TANTRA(Adversarial Network Traffic Reshaping Attack)を提案する。
我々の回避攻撃は、ターゲットネットワークの良性パケット間の時間差を学習するために訓練された長い短期記憶(LSTM)ディープニューラルネットワーク(DNN)を利用する。
TANTRAは、ネットワーク侵入検出システム回避の平均成功率99.99%を達成します。
論文 参考訳(メタデータ) (2021-03-10T19:03:38Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - NeuroAttack: Undermining Spiking Neural Networks Security through
Externally Triggered Bit-Flips [11.872768663147776]
Spiking Neural Networks(SNN)は、機械学習システムにおける正確性、リソース利用、エネルギー効率の課題に対する、有望な解決策として登場した。
これらのシステムは主流になってきていますが、本質的にセキュリティと信頼性の問題があります。
我々は低レベルの信頼性問題を利用してSNNの整合性を脅かすクロスレイヤー攻撃であるNeuroAttackを提案する。
論文 参考訳(メタデータ) (2020-05-16T16:54:00Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。