論文の概要: Evolved Explainable Classifications for Lymph Node Metastases
- arxiv url: http://arxiv.org/abs/2005.07229v1
- Date: Thu, 14 May 2020 19:27:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:22:55.601562
- Title: Evolved Explainable Classifications for Lymph Node Metastases
- Title(参考訳): リンパ節転移の進展する説明可能な分類法
- Authors: Iam Palatnik de Sousa, Marley Maria Bernardes Rebuzzi Vellasco,
Eduardo Costa da Silva
- Abstract要約: 説明可能な人工知能のための「進化説明」モデル(EvEx)
CNNは、リンパ節転移組織の存在/存在のバイナリ分類を提供するためにデータセットを訓練した。
熱マップは専門医のセグメンテーションと一致し、この手法が高品質な説明を見つけることができることを示した。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A novel evolutionary approach for Explainable Artificial Intelligence is
presented: the "Evolved Explanations" model (EvEx). This methodology consists
in combining Local Interpretable Model Agnostic Explanations (LIME) with
Multi-Objective Genetic Algorithms to allow for automated segmentation
parameter tuning in image classification tasks. In this case, the dataset
studied is Patch-Camelyon, comprised of patches from pathology whole slide
images. A publicly available Convolutional Neural Network (CNN) was trained on
this dataset to provide a binary classification for presence/absence of lymph
node metastatic tissue. In turn, the classifications are explained by means of
evolving segmentations, seeking to optimize three evaluation goals
simultaneously. The final explanation is computed as the mean of all
explanations generated by Pareto front individuals, evolved by the developed
genetic algorithm. To enhance reproducibility and traceability of the
explanations, each of them was generated from several different seeds, randomly
chosen. The observed results show remarkable agreement between different seeds.
Despite the stochastic nature of LIME explanations, regions of high explanation
weights proved to have good agreement in the heat maps, as computed by
pixel-wise relative standard deviations. The found heat maps coincide with
expert medical segmentations, which demonstrates that this methodology can find
high quality explanations (according to the evaluation metrics), with the novel
advantage of automated parameter fine tuning. These results give additional
insight into the inner workings of neural network black box decision making for
medical data.
- Abstract(参考訳): 説明可能な人工知能の新しい進化的アプローチとして、"Evolved Explanations"モデル(EvEx)がある。
この手法は、画像分類タスクにおける自動セグメンテーションパラメータチューニングを可能にするために、LIME(Local Interpretable Model Agnostic Explanations)とMulti-Objective Genetic Algorithmsを組み合わせたものである。
この場合、調査されたデータセットはPatch-Camelyonで、スライド画像全体の病理像からパッチで構成されている。
このデータセットで利用可能な畳み込みニューラルネットワーク(CNN)をトレーニングし、リンパ節転移組織の存在/存在のバイナリ分類を提供した。
それぞれの分類は進化的セグメンテーションによって説明され、3つの評価目標を同時に最適化しようとする。
最終説明は、発達した遺伝的アルゴリズムによって進化したパレート人によって生成されたすべての説明の平均として計算される。
説明の再現性とトレーサビリティを高めるために、それぞれがランダムに選択された複数の異なる種から生成される。
その結果,異なる種子間で顕著な一致を示した。
LIMEの説明の確率的性質にもかかわらず、高説明重みの領域は、ピクセルワイドの相対標準偏差によって計算された熱マップにおいて良い一致を示した。
得られたヒートマップは、この手法が(評価指標による)高品質な説明を見つけることができ、自動パラメータの微調整という新たな利点があることを実証する専門家の医療区分と一致する。
これらの結果は、医療データのためのニューラルネットワークブラックボックス決定の内部動作に関するさらなる洞察を与える。
関連論文リスト
- Learning local discrete features in explainable-by-design convolutional neural networks [0.0]
本稿では,側方抑制機構に基づくCNN(Design-by-Design Convolutional Neural Network)を提案する。
このモデルは、残留または高密度のスキップ接続を持つ高精度CNNである予測器で構成されている。
観測を収集し,直接確率を計算することにより,隣接するレベルのモチーフ間の因果関係を説明することができる。
論文 参考訳(メタデータ) (2024-10-31T18:39:41Z) - Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals [4.384272169863716]
高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
Attri-Netは、ローカルおよびグローバルな説明を提供するマルチラベル分類の本質的に解釈可能なモデルである。
論文 参考訳(メタデータ) (2024-06-08T13:52:02Z) - A Comparative Analysis of Gene Expression Profiling by Statistical and
Machine Learning Approaches [1.8954222800767324]
がん検体を分類する機械学習モデルの生物学的および方法論的限界について論じる。
遺伝子ランキングはこれらのモデルに適応した説明可能性法から得られる。
ブラックボックスニューラルネットワークによって学習された情報は、微分表現の概念と関連している。
論文 参考訳(メタデータ) (2024-02-01T18:17:36Z) - An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification [55.28171619580959]
本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
論文 参考訳(メタデータ) (2023-07-25T11:51:14Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - EvalAttAI: A Holistic Approach to Evaluating Attribution Maps in Robust
and Non-Robust Models [0.3425341633647624]
本稿では、ロバストニューラルネットワークがより説明しやすいかどうかを調べるために、属性マッピングの評価方法に焦点を当てる。
従来の指標の限界に対処する新しい説明可能性忠実度指標(EvalAttAI)を提案する。
論文 参考訳(メタデータ) (2023-03-15T18:33:22Z) - The Manifold Hypothesis for Gradient-Based Explanations [55.01671263121624]
勾配に基づく説明アルゴリズムは知覚的に整合した説明を提供する。
特徴属性がデータの接する空間と一致しているほど、知覚的に一致している傾向にあることを示す。
説明アルゴリズムは、その説明をデータ多様体と整合させるよう積極的に努力すべきである。
論文 参考訳(メタデータ) (2022-06-15T08:49:24Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。