論文の概要: Usefulness of interpretability methods to explain deep learning based
plant stress phenotyping
- arxiv url: http://arxiv.org/abs/2007.05729v1
- Date: Sat, 11 Jul 2020 09:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:35:11.218688
- Title: Usefulness of interpretability methods to explain deep learning based
plant stress phenotyping
- Title(参考訳): 深層学習に基づく植物ストレス表現のための解釈可能性手法の有用性
- Authors: Koushik Nagasubramanian, Asheesh K. Singh, Arti Singh, Soumik Sarkar,
Baskar Ganapathysubramanian
- Abstract要約: 8種類のダイズストレス(抗生物質および抗生物質)の分類のためのDenseNet-121ネットワークを訓練する
テストデータの多種多様なサブセットについては、重要な特徴と人間の専門家が特定した特徴を比較した。
ほとんどの解釈可能性法は、葉の感染した領域を、正しく分類された画像の重要な特徴として識別する。
- 参考スコア(独自算出の注目度): 8.786924604224101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning techniques have been successfully deployed for automating plant
stress identification and quantification. In recent years, there is a growing
push towards training models that are interpretable -i.e. that justify their
classification decisions by visually highlighting image features that were
crucial for classification decisions. The expectation is that trained network
models utilize image features that mimic visual cues used by plant
pathologists. In this work, we compare some of the most popular
interpretability methods: Saliency Maps, SmoothGrad, Guided Backpropogation,
Deep Taylor Decomposition, Integrated Gradients, Layer-wise Relevance
Propagation and Gradient times Input, for interpreting the deep learning model.
We train a DenseNet-121 network for the classification of eight different
soybean stresses (biotic and abiotic). Using a dataset consisting of 16,573 RGB
images of healthy and stressed soybean leaflets captured under controlled
conditions, we obtained an overall classification accuracy of 95.05 \%. For a
diverse subset of the test data, we compared the important features with those
identified by a human expert. We observed that most interpretability methods
identify the infected regions of the leaf as important features for some -- but
not all -- of the correctly classified images. For some images, the output of
the interpretability methods indicated that spurious feature correlations may
have been used to correctly classify them. Although the output explanation maps
of these interpretability methods may be different from each other for a given
image, we advocate the use of these interpretability methods as `hypothesis
generation' mechanisms that can drive scientific insight.
- Abstract(参考訳): 深層学習技術は植物のストレス識別と定量化の自動化に成功している。
近年,分類決定に不可欠な画像の特徴を視覚的に強調することにより分類決定を正当化する,解釈可能な訓練モデルへの取り組みが高まっている。
トレーニングされたネットワークモデルは、植物病理学者が使用する視覚手がかりを模倣した画像特徴を利用する。
本研究では,高度学習モデルの解釈のために,サリエンシマップ,スムースグレード,ガイドバックプロポゲーション,深いテイラー分解,統合勾配,層間相関伝播,勾配時間入力など,最も一般的な解釈方法をいくつか比較する。
我々は,8種類のダイズストレス(生物的および無生物的)を分類するために,密度ネット-121ネットワークを訓練する。
16,573RGBの健康・ストレスのダイズ葉のデータセットを用いて,全体の分類精度を95.05 \%とした。
テストデータの多様なサブセットについては、重要な特徴と人間の専門家が特定した特徴を比較した。
その結果, 葉の感染部位を, 正しく分類された画像の重要な特徴として認識しうる方法がほとんどであることがわかった。
いくつかの画像では、解釈可能性の手法の出力は、特徴相関がそれらを正しく分類するために使われた可能性があることを示している。
これらの解釈可能性手法の出力説明マップは, 与えられた画像に対して異なる場合があるが, 科学的洞察を促進する「仮説生成」機構として, これらの解釈可能性手法の利用を提唱する。
関連論文リスト
- Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - EvalAttAI: A Holistic Approach to Evaluating Attribution Maps in Robust
and Non-Robust Models [0.3425341633647624]
本稿では、ロバストニューラルネットワークがより説明しやすいかどうかを調べるために、属性マッピングの評価方法に焦点を当てる。
従来の指標の限界に対処する新しい説明可能性忠実度指標(EvalAttAI)を提案する。
論文 参考訳(メタデータ) (2023-03-15T18:33:22Z) - A Test Statistic Estimation-based Approach for Establishing
Self-interpretable CNN-based Binary Classifiers [7.424003880270276]
ポストホック解釈可能性法は、可算だが異なる解釈を生成できるという限界がある。
提案手法は自己解釈可能で定量的であり,従来のポストホック・インタプリタビリティ法とは異なり,自己解釈可能で定量的である。
論文 参考訳(メタデータ) (2023-03-13T05:51:35Z) - Few-Shot Learning Enables Population-Scale Analysis of Leaf Traits in
Populus trichocarpa [1.9089478605920305]
この研究は、(i)最小のトレーニングデータを必要とする高速で正確な画像ベースの特徴抽出のための方法と、(ii)68種類の葉の表現型を含む新しい集団規模のデータセットを、ドメイン科学者や機械学習研究者向けに植物表現型コミュニティに提供するように設計されている。
数発の学習コード、データ、結果はすべて公開されています。
論文 参考訳(メタデータ) (2023-01-24T23:40:01Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - An Empirical Study of the Collapsing Problem in Semi-Supervised 2D Human
Pose Estimation [80.02124918255059]
半教師付き学習は、ラベルなし画像の探索によってモデルの精度を高めることを目的としている。
私たちは相互に教え合うために2つのネットワークを学びます。
各ネットワーク内の容易なイメージに関するより信頼性の高い予測は、他のネットワークに対応するハードイメージについて学ぶように教えるために使用される。
論文 参考訳(メタデータ) (2020-11-25T03:29:52Z) - Graph Neural Networks for UnsupervisedDomain Adaptation of
Histopathological ImageAnalytics [22.04114134677181]
組織像解析のための教師なし領域適応のための新しい手法を提案する。
特徴空間に画像を埋め込むバックボーンと、ラベルで画像の監視信号をプロパゲートするグラフニューラルネットワーク層に基づいている。
実験では、4つの公開データセット上での最先端のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2020-08-21T04:53:44Z) - ICAM: Interpretable Classification via Disentangled Representations and
Feature Attribution Mapping [3.262230127283453]
画像から画像への変換によってクラス固有のFAマップを作成するための新しいフレームワークを提案する。
我々は,認知症,老化,(模擬)病変検出の2次元および3次元脳画像データセットを用いて,本手法の有効性を検証した。
提案手法は,表現型変動の探索を支援するために潜時空間サンプリングを用いた最初の手法である。
論文 参考訳(メタデータ) (2020-06-15T11:23:30Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z) - Embedding Propagation: Smoother Manifold for Few-Shot Classification [131.81692677836202]
本稿では, 組込み伝搬を非教師なし非パラメトリック正規化器として, 数ショット分類における多様体平滑化に用いることを提案する。
埋め込み伝播がより滑らかな埋め込み多様体を生み出すことを実証的に示す。
複数の半教師付き学習シナリオにおいて,埋め込み伝搬によりモデルの精度が最大16%向上することを示す。
論文 参考訳(メタデータ) (2020-03-09T13:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。