論文の概要: A Systematic Literature Review on Hardware Reliability Assessment
Methods for Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2305.05750v1
- Date: Tue, 9 May 2023 20:08:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 15:22:27.609755
- Title: A Systematic Literature Review on Hardware Reliability Assessment
Methods for Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークのハードウェア信頼性評価手法に関する体系的文献レビュー
- Authors: Mohammad Hasan Ahmadilivani, Mahdi Taheri, Jaan Raik, Masoud
Daneshtalab, Maksim Jenihhin
- Abstract要約: ディープニューラルネットワーク(DNN)の信頼性は研究の必須課題である。
近年、DNNの信頼性を評価するためにいくつかの研究が公表されている。
本研究では,DNNの信頼性評価手法について,SLR(Systematic Literature Review)を実施している。
- 参考スコア(独自算出の注目度): 1.189955933770711
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial Intelligence (AI) and, in particular, Machine Learning (ML) have
emerged to be utilized in various applications due to their capability to learn
how to solve complex problems. Over the last decade, rapid advances in ML have
presented Deep Neural Networks (DNNs) consisting of a large number of neurons
and layers. DNN Hardware Accelerators (DHAs) are leveraged to deploy DNNs in
the target applications. Safety-critical applications, where hardware
faults/errors would result in catastrophic consequences, also benefit from
DHAs. Therefore, the reliability of DNNs is an essential subject of research.
In recent years, several studies have been published accordingly to assess the
reliability of DNNs. In this regard, various reliability assessment methods
have been proposed on a variety of platforms and applications. Hence, there is
a need to summarize the state of the art to identify the gaps in the study of
the reliability of DNNs. In this work, we conduct a Systematic Literature
Review (SLR) on the reliability assessment methods of DNNs to collect relevant
research works as much as possible, present a categorization of them, and
address the open challenges. Through this SLR, three kinds of methods for
reliability assessment of DNNs are identified including Fault Injection (FI),
Analytical, and Hybrid methods. Since the majority of works assess the DNN
reliability by FI, we characterize different approaches and platforms of the FI
method comprehensively. Moreover, Analytical and Hybrid methods are propounded.
Thus, different reliability assessment methods for DNNs have been elaborated on
their conducted DNN platforms and reliability evaluation metrics. Finally, we
highlight the advantages and disadvantages of the identified methods and
address the open challenges in the research area.
- Abstract(参考訳): 人工知能(AI)、特に機械学習(ML)は、複雑な問題を解決する方法を学ぶ能力のため、様々なアプリケーションで利用されるようになった。
過去10年間で、MLの急速な進歩により、多数のニューロンとレイヤからなるディープニューラルネットワーク(DNN)が提示された。
DNNハードウェアアクセラレータ(DHA)は、ターゲットアプリケーションにDNNをデプロイするために利用される。
ハードウェアの障害やエラーが破滅的な結果をもたらす安全クリティカルなアプリケーションも、dhasの恩恵を受ける。
したがって、DNNの信頼性は研究の必須課題である。
近年、DNNの信頼性を評価するためにいくつかの研究が公表されている。
この点に関して、様々なプラットフォームやアプリケーションに様々な信頼性評価手法が提案されている。
したがって、DNNの信頼性の研究におけるギャップを特定するためには、技術の現状を要約する必要がある。
本研究では,dnnの信頼性評価手法に関する体系的文献レビュー(slr)を行い,関連する研究成果を可能な限り収集し,それらを分類し,オープン課題に対処した。
このSLRを通して,DNNの信頼性評価手法として,障害注入法(FI),解析法,ハイブリッド方式の3種類を同定する。
多くの研究がDNNの信頼性をFIで評価しているので、FI手法の異なるアプローチとプラットフォームを包括的に特徴付ける。
さらに分析法とハイブリッド法が提案されている。
そこで, DNNの信頼性評価手法について検討し, 信頼性評価指標について検討した。
最後に,特定した手法の長所と短所を強調し,研究分野におけるオープンな課題に対処した。
関連論文リスト
- Unveiling and Mitigating Generalized Biases of DNNs through the Intrinsic Dimensions of Perceptual Manifolds [46.47992213722412]
公正なディープニューラルネットワーク(DNN)の構築は、信頼できる人工知能を達成するための重要なステップである。
本稿では,モデルの公平性と性能を高める固有次元正規化(IDR)を提案する。
様々な画像認識ベンチマークテストにおいて、IDRはモデルバイアスを低減し、性能を向上する。
論文 参考訳(メタデータ) (2024-04-22T04:16:40Z) - DeepKnowledge: Generalisation-Driven Deep Learning Testing [2.526146573337397]
DeepKnowledgeは、DNNベースのシステムの体系的なテスト手法である。
堅牢性を高め、'ブラックボックス'モデルの残留リスクを低減することを目的としている。
本報告では, 対人攻撃検出のための最先端のサーベイ基準に対して, 最大10ポイントの改善を報告した。
論文 参考訳(メタデータ) (2024-03-25T13:46:09Z) - A Survey of Graph Neural Networks in Real world: Imbalance, Noise,
Privacy and OOD Challenges [75.37448213291668]
本稿では,既存のグラフニューラルネットワーク(GNN)を体系的にレビューする。
まず、既存のGNNが直面している4つの重要な課題を強調し、現実のGNNモデルを探究する道を開く。
論文 参考訳(メタデータ) (2024-03-07T13:10:37Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - DeepVigor: Vulnerability Value Ranges and Factors for DNNs' Reliability
Assessment [1.189955933770711]
Deep Neural Networks(DNN)とそのアクセラレータは、安全クリティカルなアプリケーションに頻繁にデプロイされている。
本稿では,DeepVigorと呼ばれる,高精度,微粒化,メトリック指向,アクセラレーションに依存しない新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-13T08:55:10Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - gRoMA: a Tool for Measuring the Global Robustness of Deep Neural
Networks [3.2228025627337864]
ディープニューラルネットワーク(DNN)は最先端技術の最前線にあり、さまざまな複雑なタスクにおいて顕著なパフォーマンスを実現している。
航空宇宙分野や自動車分野などの安全クリティカルシステムへの統合は、敵の入力の脅威のために大きな課題となる。
本稿では,DNNのグローバルな分類的ロバスト性を測定するための確率論的アプローチを実装した,革新的でスケーラブルなツールであるgRoMAを紹介する。
論文 参考訳(メタデータ) (2023-01-05T20:45:23Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。