論文の概要: CIDMP: Completely Interpretable Detection of Malaria Parasite in Red
Blood Cells using Lower-dimensional Feature Space
- arxiv url: http://arxiv.org/abs/2007.02248v1
- Date: Sun, 5 Jul 2020 06:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 08:02:14.281528
- Title: CIDMP: Completely Interpretable Detection of Malaria Parasite in Red
Blood Cells using Lower-dimensional Feature Space
- Title(参考訳): CIDMP:低次元特徴空間を用いた赤血球内マラリア寄生虫の完全検出
- Authors: Anik Khan, Kishor Datta Gupta, Deepak Venugopal, Nirman Kumar
- Abstract要約: 本稿では,解釈や計算が容易なごく少数の集合的特徴を抽出する手法を提案する。
特徴空間が大幅に小さくても高い予測精度が得られる。
- 参考スコア(独自算出の注目度): 2.641302444158002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting if red blood cells (RBC) are infected with the malaria parasite is
an important problem in Pathology. Recently, supervised machine learning
approaches have been used for this problem, and they have had reasonable
success. In particular, state-of-the-art methods such as Convolutional Neural
Networks automatically extract increasingly complex feature hierarchies from
the image pixels. While such generalized automatic feature extraction methods
have significantly reduced the burden of feature engineering in many domains,
for niche tasks such as the one we consider in this paper, they result in two
major problems. First, they use a very large number of features (that may or
may not be relevant) and therefore training such models is computationally
expensive. Further, more importantly, the large feature-space makes it very
hard to interpret which features are truly important for predictions. Thus, a
criticism of such methods is that learning algorithms pose opaque black boxes
to its users, in this case, medical experts. The recommendation of such
algorithms can be understood easily, but the reason for their recommendation is
not clear. This is the problem of non-interpretability of the model, and the
best-performing algorithms are usually the least interpretable. To address
these issues, in this paper, we propose an approach to extract a very small
number of aggregated features that are easy to interpret and compute, and
empirically show that we obtain high prediction accuracy even with a
significantly reduced feature-space.
- Abstract(参考訳): マラリア原虫に赤血球(RBC)が感染しているかどうかを予測することは、病理学において重要な問題である。
最近、教師付き機械学習アプローチがこの問題に使われており、合理的な成功を収めている。
特に畳み込みニューラルネットワークのような最先端の手法は、画像ピクセルからますます複雑な特徴階層を自動的に抽出する。
このような一般化された自動特徴抽出法は、多くの領域において機能工学の負担を大幅に減らしているが、本稿で検討したようなニッチなタスクでは、2つの大きな問題が生じる。
第一に、非常に多くの機能(関連しないかもしれない)を使用しているため、そのようなモデルのトレーニングは計算コストがかかる。
さらに重要なのは、大きな機能領域が、どの機能が予測に本当に重要なのかを理解するのを非常に難しくすることです。
したがって、このような方法に対する批判は、学習アルゴリズムが不透明なブラックボックスをユーザーに、この場合、医療専門家に与えることである。
このようなアルゴリズムの推奨は容易に理解できるが、その推奨の理由は明らかではない。
これはモデルの非解釈可能性の問題であり、最も優れたアルゴリズムは通常最小の解釈可能である。
これらの問題に対処するため,本稿では,解釈や計算が容易な少数の集約特徴を抽出し,特徴空間が大幅に縮小された場合でも高い予測精度が得られることを示す手法を提案する。
関連論文リスト
- FPN-IAIA-BL: A Multi-Scale Interpretable Deep Learning Model for Classification of Mass Margins in Digital Mammography [17.788748860485438]
解釈不能なディープラーニングモデルは、高度な環境には適さない。
コンピュータビジョンの解釈における最近の研究は、かつてのブラックボックスに対して透明性を提供する。
本稿では,マンモグラフィマスマージン分類のための多段階解釈型深層学習モデルを提案する。
論文 参考訳(メタデータ) (2024-06-10T15:44:41Z) - How Well Do Feature-Additive Explainers Explain Feature-Additive
Predictors? [12.993027779814478]
LIME、SHAP、SHAPR、MAPLE、PDPといった人気機能付加型推論器は、機能付加型予測器を説明できるだろうか?
本稿では,モデルの加法構造から解析的に導出される基底真理について,そのような説明を行う。
以上の結果から,全ての説明者が機能の重要性を正しく評価できないことが示唆された。
論文 参考訳(メタデータ) (2023-10-27T21:16:28Z) - Towards frugal unsupervised detection of subtle abnormalities in medical
imaging [0.0]
医用画像における異常検出は、異常が注釈付けされていない状況では難しい課題である。
汎用性が広く認識されている確率分布の混合について検討する。
このオンラインアプローチは、新たに診断されたパーキンソン病患者の追跡において、MR脳スキャンの微妙な異常の検出が困難であることを示すものである。
論文 参考訳(メタデータ) (2023-09-04T07:44:54Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Learning to Detect Critical Nodes in Sparse Graphs via Feature Importance Awareness [53.351863569314794]
クリティカルノード問題(CNP)は、削除が残余ネットワークのペア接続性を最大に低下させるネットワークから臨界ノードの集合を見つけることを目的としている。
本研究は,ノード表現のための特徴重要度対応グラフアテンションネットワークを提案する。
ダブルディープQネットワークと組み合わせて、初めてCNPを解くエンドツーエンドのアルゴリズムを作成する。
論文 参考訳(メタデータ) (2021-12-03T14:23:05Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Information Bottleneck Attribution for Visual Explanations of Diagnosis
and Prognosis [8.325727554619325]
本稿では,医療応用のための堅牢な視覚的説明手法を提案する。
情報ボトルネックの概念に触発され、ニューラルネットワーク表現をノイズでマスキングして重要な領域を見つけます。
論文 参考訳(メタデータ) (2021-04-07T02:43:52Z) - Overcoming the curse of dimensionality with Laplacian regularization in
semi-supervised learning [80.20302993614594]
ラプラシア正規化の欠点を克服するための統計的解析を提供する。
望ましい振る舞いを示すスペクトルフィルタリング法を多数発表する。
我々は,本手法を大量のデータで利用できるようにするために,現実的な計算ガイドラインを提供する。
論文 参考訳(メタデータ) (2020-09-09T14:28:54Z) - Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks [96.93500886136532]
グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T15:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。