論文の概要: Resilience and Security of Deep Neural Networks Against Intentional and Unintentional Perturbations: Survey and Research Challenges
- arxiv url: http://arxiv.org/abs/2408.00193v2
- Date: Sat, 3 Aug 2024 02:23:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 12:36:51.845509
- Title: Resilience and Security of Deep Neural Networks Against Intentional and Unintentional Perturbations: Survey and Research Challenges
- Title(参考訳): 意図的・意図的摂動に対するディープニューラルネットワークのレジリエンスとセキュリティ:調査と研究課題
- Authors: Sazzad Sayyed, Milin Zhang, Shahriar Rifat, Ananthram Swami, Michael De Lucia, Francesco Restuccia,
- Abstract要約: 高度なシナリオでは、ディープニューラルネットワーク(DNN)が外部の摂動に対して堅牢な推論を提供することが必須である。
このギャップを埋めるために,技術の現状を調査し,提案手法の類似点を強調する。
- 参考スコア(独自算出の注目度): 17.246403634915087
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In order to deploy deep neural networks (DNNs) in high-stakes scenarios, it is imperative that DNNs provide inference robust to external perturbations - both intentional and unintentional. Although the resilience of DNNs to intentional and unintentional perturbations has been widely investigated, a unified vision of these inherently intertwined problem domains is still missing. In this work, we fill this gap by providing a survey of the state of the art and highlighting the similarities of the proposed approaches.We also analyze the research challenges that need to be addressed to deploy resilient and secure DNNs. As there has not been any such survey connecting the resilience of DNNs to intentional and unintentional perturbations, we believe this work can help advance the frontier in both domains by enabling the exchange of ideas between the two communities.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)を高リスクシナリオにデプロイするには、DNNが意図的かつ意図的ではなく、外部の摂動に対して堅牢な推論を提供することが不可欠である。
意図的および意図的でない摂動に対するDNNの弾力性は広く研究されているが、これらの本質的に絡み合った問題領域の統一的なビジョンはいまだに欠落している。
本稿では, 現状調査と提案手法の類似点を明らかにすることで, このギャップを埋めるとともに, レジリエントでセキュアなDNNの展開に必要な研究課題も分析する。
DNNのレジリエンスを意図的かつ意図しない摂動に結びつけるような調査は行われていないため、この研究は両領域のフロンティアを前進させるのに役立つと信じている。
関連論文リスト
- Enhancing Adversarial Robustness in SNNs with Sparse Gradients [46.15229142258264]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率の高い操作と生物学的にインスパイアされた構造に対して大きな注目を集めている。
既存の技術は、ANNから適応したものであれ、SNNのために特別に設計されたものであれ、SNNの訓練や強力な攻撃に対する防御に制限がある。
本稿では,SNNの頑健性を高めるための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T05:39:27Z) - Extracting Explanations, Justification, and Uncertainty from Black-Box
Deep Neural Networks [0.0]
本稿では,Deep Neural Networks から説明,正当化,不確実性推定を抽出する新しいベイズ的手法を提案する。
我々の手法はメモリと計算の両面で効率的であり、再トレーニングなしにどんなブラックボックスDNNにも適用できる。
論文 参考訳(メタデータ) (2024-03-13T16:06:26Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - A Survey of Graph Neural Networks in Real world: Imbalance, Noise,
Privacy and OOD Challenges [75.37448213291668]
本稿では,既存のグラフニューラルネットワーク(GNN)を体系的にレビューする。
まず、既存のGNNが直面している4つの重要な課題を強調し、現実のGNNモデルを探究する道を開く。
論文 参考訳(メタデータ) (2024-03-07T13:10:37Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - A Primer on Bayesian Neural Networks: Review and Debates [10.074350562162921]
ベイズニューラルネットワーク(BNN)は、従来のニューラルネットワークの魅力的な拡張として登場した。
このプライマーは、ニューラルネットワークとベイズ推論の基本概念を体系的に紹介する。
対象者はベイズ的手法の潜在的な背景を持つ統計学者であるが、ディープラーニングの専門知識は欠如している。
論文 参考訳(メタデータ) (2023-09-28T10:09:15Z) - gRoMA: a Tool for Measuring the Global Robustness of Deep Neural
Networks [3.2228025627337864]
ディープニューラルネットワーク(DNN)は最先端技術の最前線にあり、さまざまな複雑なタスクにおいて顕著なパフォーマンスを実現している。
航空宇宙分野や自動車分野などの安全クリティカルシステムへの統合は、敵の入力の脅威のために大きな課題となる。
本稿では,DNNのグローバルな分類的ロバスト性を測定するための確率論的アプローチを実装した,革新的でスケーラブルなツールであるgRoMAを紹介する。
論文 参考訳(メタデータ) (2023-01-05T20:45:23Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。