論文の概要: Artificial Neural Networks and Fault Injection Attacks
- arxiv url: http://arxiv.org/abs/2008.07072v2
- Date: Thu, 11 Feb 2021 16:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 04:18:03.045901
- Title: Artificial Neural Networks and Fault Injection Attacks
- Title(参考訳): 人工ニューラルネットワークとフォールトインジェクション攻撃
- Authors: Shahin Tajik and Fatemeh Ganji
- Abstract要約: この章は、障害注入攻撃に直面した人工知能(AI)とニューラルネットワーク(NN)アクセラレータのセキュリティアセスメントに関するものだ。
これらのプラットフォーム上の資産について論じ、暗号システムの分野でよく研究されているものと比較する。
- 参考スコア(独自算出の注目度): 7.601937548486356
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This chapter is on the security assessment of artificial intelligence (AI)
and neural network (NN) accelerators in the face of fault injection attacks.
More specifically, it discusses the assets on these platforms and compares them
with ones known and well-studied in the field of cryptographic systems. This is
a crucial step that must be taken in order to define the threat models
precisely. With respect to that, fault attacks mounted on NNs and AI
accelerators are explored.
- Abstract(参考訳): この章は、障害注入攻撃に直面した人工知能(AI)とニューラルネットワーク(NN)アクセラレータのセキュリティアセスメントに関するものだ。
具体的には、これらのプラットフォーム上の資産について論じ、暗号システムの分野でよく研究されているものと比較する。
脅威モデルを正確に定義するためには、これは重要なステップです。
それに関して、NNやAIアクセラレーターに搭載された障害攻撃が調査されている。
関連論文リスト
- Adversarial Challenges in Network Intrusion Detection Systems: Research Insights and Future Prospects [0.33554367023486936]
本稿では,機械学習を用いたネットワーク侵入検知システム(NIDS)の総合的なレビューを行う。
NIDSにおける既存の研究を批判的に検討し、重要なトレンド、強み、限界を強調した。
我々は、この分野における新たな課題について議論し、より堅牢でレジリエントなNIDSの開発に向けた洞察を提供する。
論文 参考訳(メタデータ) (2024-09-27T13:27:29Z) - A Synergistic Approach In Network Intrusion Detection By Neurosymbolic AI [6.315966022962632]
本稿では,ニューロシンボリック人工知能(NSAI)をネットワーク侵入検知システム(NIDS)に組み込む可能性について検討する。
NSAIは、ディープラーニングのデータ駆動の強みと、象徴的なAIの論理的推論を組み合わせて、サイバーセキュリティにおける動的な課題に取り組む。
NIDSにNSAIを組み込むことは、複雑なネットワーク脅威の検出と解釈の両方において、潜在的な進歩を示す。
論文 参考訳(メタデータ) (2024-06-03T02:24:01Z) - Problem space structural adversarial attacks for Network Intrusion Detection Systems based on Graph Neural Networks [8.629862888374243]
本稿では,ネットワーク侵入検知におけるGNNに適した敵攻撃の最初の形式化を提案する。
我々は、現実のシナリオにおいて、実行可能な構造攻撃を実行するために、攻撃者が考慮すべき問題空間の制約を概説し、モデル化する。
以上の結果から,古典的特徴に基づく攻撃に対するモデルの堅牢性の向上が示唆された。
論文 参考訳(メタデータ) (2024-03-18T14:40:33Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Exploiting Vulnerabilities in Deep Neural Networks: Adversarial and
Fault-Injection Attacks [14.958919450708157]
まず、ニューラルネットワークベースのシステムのセキュリティ攻撃を生成するために悪用できるさまざまな脆弱性について議論します。
次に、DNNに対する既存の逆方向およびフォールトインジェクションに基づく攻撃の概要を示す。
論文 参考訳(メタデータ) (2021-05-05T08:11:03Z) - TANTRA: Timing-Based Adversarial Network Traffic Reshaping Attack [46.79557381882643]
本稿では,TANTRA(Adversarial Network Traffic Reshaping Attack)を提案する。
我々の回避攻撃は、ターゲットネットワークの良性パケット間の時間差を学習するために訓練された長い短期記憶(LSTM)ディープニューラルネットワーク(DNN)を利用する。
TANTRAは、ネットワーク侵入検出システム回避の平均成功率99.99%を達成します。
論文 参考訳(メタデータ) (2021-03-10T19:03:38Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - NeuroAttack: Undermining Spiking Neural Networks Security through
Externally Triggered Bit-Flips [11.872768663147776]
Spiking Neural Networks(SNN)は、機械学習システムにおける正確性、リソース利用、エネルギー効率の課題に対する、有望な解決策として登場した。
これらのシステムは主流になってきていますが、本質的にセキュリティと信頼性の問題があります。
我々は低レベルの信頼性問題を利用してSNNの整合性を脅かすクロスレイヤー攻撃であるNeuroAttackを提案する。
論文 参考訳(メタデータ) (2020-05-16T16:54:00Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。