論文の概要: Emergent symbolic language based deep medical image classification
- arxiv url: http://arxiv.org/abs/2008.09860v1
- Date: Sat, 22 Aug 2020 15:53:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 08:14:14.428291
- Title: Emergent symbolic language based deep medical image classification
- Title(参考訳): 創発的記号言語に基づく深部医用画像分類
- Authors: Aritra Chowdhury, Alberto Santamaria-Pang, James R. Kubricht, Peter Tu
- Abstract要約: 画像分類のフレームワークにおいて,創発言語における深部記号表現のエマージェンスを初めて示す。
ELをベースとした分類モデルでは,技術深層学習の手法に劣らず,性能が向上することを示す。
- 参考スコア(独自算出の注目度): 1.2234742322758418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern deep learning systems for medical image classification have
demonstrated exceptional capabilities for distinguishing between image based
medical categories. However, they are severely hindered by their ina-bility to
explain the reasoning behind their decision making. This is partly due to the
uninterpretable continuous latent representations of neural net-works. Emergent
languages (EL) have recently been shown to enhance the capabilities of neural
networks by equipping them with symbolic represen-tations in the framework of
referential games. Symbolic representations are one of the cornerstones of
highly explainable good old fashioned AI (GOFAI) systems. In this work, we
demonstrate for the first time, the emer-gence of deep symbolic representations
of emergent language in the frame-work of image classification. We show that EL
based classification models can perform as well as, if not better than state of
the art deep learning mod-els. In addition, they provide a symbolic
representation that opens up an entire field of possibilities of interpretable
GOFAI methods involving symbol manipulation. We demonstrate the EL
classification framework on immune cell marker based cell classification and
chest X-ray classification using the CheXpert dataset. Code is available online
at https://github.com/AriChow/EL.
- Abstract(参考訳): 医用画像分類のための最新の深層学習システムは、画像に基づく医療カテゴリーを区別する特別な能力を示している。
しかし、意思決定の背後にある理由を説明する能力に深刻な障害がある。
これは部分的には、ニューラルネットワークの解釈不能な連続潜在表現によるものである。
創発言語(EL)は、最近、参照ゲームの枠組みにおいて、それらを象徴的な再認識とすることで、ニューラルネットワークの能力を高めることが示されている。
記号表現は、非常に説明しやすい古き良きAI(GOFAI)システムの基盤の1つである。
本稿では,画像分類のフレームワークにおいて,創発的言語の深い記号表現のエマージェンスを初めて示す。
ELをベースとした分類モデルでは,技術深層学習モデルよりも優れた性能が得られることを示す。
さらに、シンボル操作を含む解釈可能なgofaiメソッドの可能性の分野全体を開くシンボル表現を提供する。
我々は,chexpertデータセットを用いた免疫細胞マーカーに基づく細胞分類と胸部x線分類のel分類枠組みを示す。
コードはhttps://github.com/arichow/elで入手できる。
関連論文リスト
- Explainable Moral Values: a neuro-symbolic approach to value classification [1.4186974630564675]
本研究では、オントロジーに基づく推論と、説明可能な値分類のための機械学習技術の統合について検討する。
道徳的価値のオントロジ的形式化をモラル・ファンデーションズ・セオリー(英語版)のように頼りにすることで、テクティサンドラのニューラルシンボリック・リセサイザーは、ある文で満たされる価値を推測するために用いられる。
推理器の推論のみに依存すると、他のより複雑な手法に匹敵する説明可能な分類が得られることを示す。
論文 参考訳(メタデータ) (2024-10-16T14:53:13Z) - Spatial Action Unit Cues for Interpretable Deep Facial Expression Recognition [55.97779732051921]
表情認識(FER)のための最先端の分類器は、エンドユーザーにとって重要な特徴である解釈可能性に欠ける。
新しい学習戦略が提案され、AU cues を分類器訓練に明示的に組み込むことで、深い解釈可能なモデルを訓練することができる。
我々の新しい戦略は汎用的であり、アーキテクチャの変更や追加のトレーニング時間を必要とすることなく、ディープCNNやトランスフォーマーベースの分類器に適用できます。
論文 参考訳(メタデータ) (2024-10-01T10:42:55Z) - Hierarchical Text-to-Vision Self Supervised Alignment for Improved Histopathology Representation Learning [64.1316997189396]
病理組織像のための新しい言語型自己教師学習フレームワーク,階層型言語型自己監督(HLSS)を提案する。
その結果,OpenSRH と TCGA の2つの医用画像ベンチマークにおいて,最先端の性能が得られた。
論文 参考訳(メタデータ) (2024-03-21T17:58:56Z) - Guided Interpretable Facial Expression Recognition via Spatial Action Unit Cues [55.97779732051921]
オーキューを分類器学習に明示的に組み込むための新しい学習戦略が提案されている。
分類性能を劣化させることなく階層的解釈性を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-01T02:13:49Z) - DXAI: Explaining Classification by Image Decomposition [4.013156524547072]
我々は、分解に基づく説明可能なAI(DXAI)を用いてニューラルネットワークの分類を可視化する新しい方法を提案する。
本手法は,説明熱マップを提供する代わりに,画像のクラス非依存部分とクラス固有部分への分解を行う。
論文 参考訳(メタデータ) (2023-12-30T20:52:20Z) - Why do CNNs excel at feature extraction? A mathematical explanation [53.807657273043446]
実世界のデータセットに似た画像を生成するのに使用できる特徴抽出に基づく画像分類の新しいモデルを提案する。
本研究では,特徴の存在を検知する一方向線形関数を構築し,畳み込みネットワークで実現可能であることを示す。
論文 参考訳(メタデータ) (2023-07-03T10:41:34Z) - Inherently Interpretable Multi-Label Classification Using Class-Specific
Counterfactuals [9.485195366036292]
医療画像解析などの高度な応用分野における機械学習アルゴリズムの解釈性は不可欠である。
マルチラベル分類のための本質的に解釈可能なモデルであるAttri-Netを提案する。
Attri-Netは,臨床知識と整合した高品質なマルチラベル説明を生成する。
論文 参考訳(メタデータ) (2023-03-01T13:32:55Z) - HIRL: A General Framework for Hierarchical Image Representation Learning [54.12773508883117]
階層型画像表現学習(HIRL)のための一般的なフレームワークを提案する。
このフレームワークは、各画像の複数の意味表現を学習することを目的としており、これらの表現は、細粒度から粗粒度まで画像意味をエンコードするように構成されている。
確率的因子化に基づいて、HIRLはオフザシェルフ画像SSLアプローチにより最もきめ細かいセマンティクスを学習し、新しいセマンティクスパス識別方式により複数の粗いセマンティクスを学習する。
論文 参考訳(メタデータ) (2022-05-26T05:13:26Z) - Explaining Classifiers by Constructing Familiar Concepts [2.7514191327409714]
本稿では,ニューロンの理解不能な表現を,人間が親しむ領域に近い表現に変換するデコーダを提案する。
ClaDecの拡張により、取引の理解性と忠実性が可能になる。
ClaDecはアーキテクチャに依存するが、分類に関してより関連性の高い入力領域を強調する傾向がある。
論文 参考訳(メタデータ) (2022-03-07T12:21:06Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。