論文の概要: MFPP: Morphological Fragmental Perturbation Pyramid for Black-Box Model
Explanations
- arxiv url: http://arxiv.org/abs/2006.02659v3
- Date: Wed, 14 Oct 2020 06:59:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 10:11:19.557517
- Title: MFPP: Morphological Fragmental Perturbation Pyramid for Black-Box Model
Explanations
- Title(参考訳): MFPP:ブラックボックスモデル記述のための形態的フラクタル摂動ピラミッド
- Authors: Qing Yang, Xia Zhu, Jong-Kae Fwu, Yun Ye, Ganmei You and Yuan Zhu
- Abstract要約: 説明可能なAI問題を解決するために,形態的フラクタル摂動ピラミッド(P)法を提案する。
DNNP法では,入力画像をマルチスケールのフラグメントに分割し,フラグメントを摂動としてランダムにマスクし,サリエンシマップを生成する。
既存の入力サンプリング摂動法と比較して,ピラミッド構造の破片の方が有効であることが判明した。
- 参考スコア(独自算出の注目度): 7.051974163915314
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks (DNNs) have recently been applied and used in many
advanced and diverse tasks, such as medical diagnosis, automatic driving, etc.
Due to the lack of transparency of the deep models, DNNs are often criticized
for their prediction that cannot be explainable by human. In this paper, we
propose a novel Morphological Fragmental Perturbation Pyramid (MFPP) method to
solve the Explainable AI problem. In particular, we focus on the black-box
scheme, which can identify the input area that is responsible for the output of
the DNN without having to understand the internal architecture of the DNN. In
the MFPP method, we divide the input image into multi-scale fragments and
randomly mask out fragments as perturbation to generate a saliency map, which
indicates the significance of each pixel for the prediction result of the black
box model. Compared with the existing input sampling perturbation method, the
pyramid structure fragment has proved to be more effective. It can better
explore the morphological information of the input image to match its semantic
information, and does not need any value inside the DNN. We qualitatively and
quantitatively prove that MFPP meets and exceeds the performance of
state-of-the-art (SOTA) black-box interpretation method on multiple DNN models
and datasets.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は最近、医療診断や自動運転など、多くの先進的で多様なタスクに応用され、使用されている。
深層モデルの透明性が欠如しているため、DNNは人間によって説明できない予測についてしばしば批判される。
本稿では,説明可能なai問題を解くための新しい形態素断片摂動ピラミッド(mfpp)法を提案する。
特に,DNNの内部構造を理解することなく,DNNの出力に責任を持つ入力領域を識別するブラックボックス方式に着目した。
MFPP法では,入力画像をマルチスケールのフラグメントに分割し,フラグメントを摂動としてランダムにマスクしてサリエンシマップを生成し,ブラックボックスモデルの予測結果に対する各ピクセルの意義を示す。
既存の入力サンプリング摂動法と比較して,ピラミッド構造の破片の方が有効であることが判明した。
入力画像の形態情報をその意味情報と一致するようによりよく探索でき、DNN内部では何の価値も必要としない。
我々は,MFPPが複数のDNNモデルおよびデータセット上で,最先端(SOTA)ブラックボックス解釈法の性能に適合し,その性能を超えることを質的に定量的に証明する。
関連論文リスト
- Information Bottleneck Analysis of Deep Neural Networks via Lossy
Compression [55.41644538483948]
Information Bottleneck(IB)原則は、ディープニューラルネットワーク(DNN)のトレーニングプロセスを分析するための情報理論フレームワークを提供する。
本稿では,一般NNのICB解析のための包括的フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-13T21:44:32Z) - A Domain Decomposition-Based CNN-DNN Architecture for Model Parallel
Training Applied to Image Recognition Problems [0.0]
モデル並列トレーニング戦略を自然にサポートする新しいCNN-DNNアーキテクチャを提案する。
提案手法は,グローバルモデルと比較して,必要なトレーニング時間を著しく短縮することができる。
その結果,提案手法は,基礎となる分類問題の精度向上にも有効であることが示唆された。
論文 参考訳(メタデータ) (2023-02-13T18:06:59Z) - Interpreting Black-box Machine Learning Models for High Dimensional
Datasets [40.09157165704895]
我々は、高次元データセット上でブラックボックスモデルをトレーニングし、その分類が行われる埋め込みを学習する。
次に、トップk特徴空間上の解釈可能な代理モデルを用いてブラックボックスモデルの挙動を近似する。
我々のアプローチは、異なるデータセットでテストした場合、TabNetやXGboostのような最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-08-29T07:36:17Z) - Pyramid Grafting Network for One-Stage High Resolution Saliency
Detection [29.013012579688347]
我々は、異なる解像度画像から特徴を独立して抽出する、Praamid Grafting Network (PGNet) と呼ばれるワンステージフレームワークを提案する。
CNNブランチが壊れた詳細情報をよりホモロジーに組み合わせられるように、アテンションベースのクロスモデルグラフティングモジュール (CMGM) が提案されている。
我々は,4K-8K解像度で5,920個の画像を含む超高分解能塩度検出データセットUHRSDを新たに提供した。
論文 参考訳(メタデータ) (2022-04-11T12:22:21Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Manifold Topology Divergence: a Framework for Comparing Data Manifolds [109.0784952256104]
本研究では,深部生成モデルの評価を目的としたデータ多様体の比較フレームワークを開発する。
クロスバーコードに基づき,manifold Topology Divergence score(MTop-Divergence)を導入する。
MTop-Divergenceは,様々なモードドロップ,モード内崩壊,モード発明,画像乱れを正確に検出する。
論文 参考訳(メタデータ) (2021-06-08T00:30:43Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Multiscale Detection of Cancerous Tissue in High Resolution Slide Scans [0.0]
高分解能スライドスキャンにおけるマルチスケール腫瘍(キメラ細胞)検出アルゴリズムを提案する。
提案手法では,CNNの異なる層における有効受容場を改良し,幅広いスケールの物体を1つの前方通過で検出する。
論文 参考訳(メタデータ) (2020-10-01T18:56:46Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - Improving the Interpretability of fMRI Decoding using Deep Neural
Networks and Adversarial Robustness [1.254120224317171]
サリエンシマップは、入力特徴の相対的重要性の解釈可能な可視化を作成するための一般的なアプローチである。
そこで本稿では,DNNを入力雑音に頑健にするために開発した,勾配型サリエンシマップの多種多様な手法について検討する。
論文 参考訳(メタデータ) (2020-04-23T12:56:24Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。