論文の概要: Black-box error diagnosis in deep neural networks: a survey of tools
- arxiv url: http://arxiv.org/abs/2201.06444v1
- Date: Mon, 17 Jan 2022 14:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 14:46:07.941955
- Title: Black-box error diagnosis in deep neural networks: a survey of tools
- Title(参考訳): 深部ニューラルネットワークにおけるブラックボックスエラー診断 : ツールの調査
- Authors: Piero Fraternali, Federico Milani, Rocio Nahime Torres, Niccol\`o
Zangrando
- Abstract要約: ディープニューラルネットワーク(DNN)の幅広いタスクへの適用は、これらのアーキテクチャの複雑で不透明な性質に対処するための方法を必要とする。
性能分析は2つの方法で行うことができる。
一方、モデルはモデルトレーニングに寄与しないが、モデルの応答を特徴づけるために利用することができる追加アノテーションと入力サンプルを関連付けることで、"ブラックボックス"として分析することができる。
- 参考スコア(独自算出の注目度): 3.7536109969679057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The application of Deep Neural Networks (DNNs) to a broad variety of tasks
demands methods for coping with the complex and opaque nature of these
architectures. The analysis of performance can be pursued in two ways. On one
side, model interpretation techniques aim at "opening the box" to assess the
relationship between the input, the inner layers, and the output. For example,
saliency and attention models exploit knowledge of the architecture to capture
the essential regions of the input that have the most impact on the inference
process and output. On the other hand, models can be analysed as "black boxes",
e.g., by associating the input samples with extra annotations that do not
contribute to model training but can be exploited for characterizing the model
response. Such performance-driven meta-annotations enable the detailed
characterization of performance metrics and errors and help scientists identify
the features of the input responsible for prediction failures and focus their
model improvement efforts. This paper presents a structured survey of the tools
that support the "black box" analysis of DNNs and discusses the gaps in the
current proposals and the relevant future directions in this research field.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の幅広いタスクへの適用は、これらのアーキテクチャの複雑で不透明な性質に対処するための方法を必要とする。
性能分析は2つの方法で行うことができる。
一方、モデル解釈手法は、入力、内部層、出力の関係を評価するために「箱を開ける」ことを目的としている。
例えば、正当性と注意モデルはアーキテクチャの知識を利用して、推論プロセスと出力に最も影響を与える入力の本質的な領域をキャプチャします。
一方、モデルは「ブラックボックス」として分析することができ、例えば、入力サンプルにモデルトレーニングに寄与しない追加アノテーションを関連付けることで、モデルの応答を特徴づけるために利用することができる。
このようなパフォーマンス駆動型メタアノテーションは、パフォーマンスメトリクスとエラーの詳細な特徴付けを可能にし、予測失敗の原因となる入力の特徴を特定し、モデル改善の取り組みに集中するのに役立つ。
本稿では,dnnの「ブラックボックス」分析を支援するツールに関する構造化調査を行い,本研究における提案のギャップと今後の方向性について述べる。
関連論文リスト
- SoK: On Finding Common Ground in Loss Landscapes Using Deep Model Merging Techniques [4.013324399289249]
本稿では,モデルマージ手法の新たな分類法を提案する。
これらの分野における文献からの反復的な経験的観察を,ロスランドスケープ幾何学の4つの主要な側面のキャラクタリゼーションに用いた。
論文 参考訳(メタデータ) (2024-10-16T18:14:05Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - iNNspector: Visual, Interactive Deep Model Debugging [8.997568393450768]
本研究では,ディープラーニング実験のデータ空間を構造化する概念的枠組みを提案する。
我々のフレームワークは設計の次元を捉え、このデータを探索可能かつ抽出可能にするためのメカニズムを提案する。
我々は、ディープラーニング実験の追跡を可能にし、データのインタラクティブな可視化を提供するiNNspectorシステムを提案する。
論文 参考訳(メタデータ) (2024-07-25T12:48:41Z) - Explaining Deep Neural Networks by Leveraging Intrinsic Methods [0.9790236766474201]
この論文はeXplainable AIの分野に貢献し、ディープニューラルネットワークの解釈可能性の向上に重点を置いている。
中心となる貢献は、これらのネットワークをより解釈しやすくすることを目的とした新しい技術の導入である。
第2に、この研究は、訓練された深層ニューラルネットワーク内のニューロンに関する新しい研究を掘り下げ、その活性化値に関連する見過ごされた現象に光を当てた。
論文 参考訳(メタデータ) (2024-07-17T01:20:17Z) - CAManim: Animating end-to-end network activation maps [0.2509487459755192]
本稿では,CNN予測に対するエンドユーザの理解の拡大と集中を目的とした,CAManimという新しいXAI可視化手法を提案する。
また,Remove and Debias(ROAD)尺度に基づいて,新たな定量的評価法を提案する。
これは、解釈可能で堅牢で透明なモデルアセスメント方法論に対する需要の増加に対応するために、先行研究に基づいている。
論文 参考訳(メタデータ) (2023-12-19T01:07:36Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Obtaining Faithful Interpretations from Compositional Neural Networks [72.41100663462191]
NLVR2およびDROPデータセット上でNMNの中間出力を評価する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
論文 参考訳(メタデータ) (2020-05-02T06:50:35Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。