論文の概要: Active Globally Explainable Learning for Medical Images via Class
Association Embedding and Cyclic Adversarial Generation
- arxiv url: http://arxiv.org/abs/2306.07306v1
- Date: Mon, 12 Jun 2023 04:51:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 16:29:56.403283
- Title: Active Globally Explainable Learning for Medical Images via Class
Association Embedding and Cyclic Adversarial Generation
- Title(参考訳): クラスアソシエーション埋め込みと巡回敵生成による医用画像のアクティブグローバル説明学習
- Authors: Ruitao Xie, Jingbang Chen, Limai Jiang, Rui Xiao, Yi Pan, Yunpeng Cai
- Abstract要約: 説明可能なAI(XAI)に関する最近の研究は、学習課題に関するグローバルな知識を抽出する効率を欠いている。
本稿では,これらの問題に対処するクラスアソシエーション埋め込み(CAE)アプローチを提案する。
医用画像分類タスクの枠組みを取り入れ, 強力な文脈認識表現を備えたより正確な衛生マップが実現可能であることを示す。
- 参考スコア(独自算出の注目度): 3.0638691735355374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability poses a major challenge to artificial intelligence (AI)
techniques. Current studies on explainable AI (XAI) lack the efficiency of
extracting global knowledge about the learning task, thus suffer deficiencies
such as imprecise saliency, context-aware absence and vague meaning. In this
paper, we propose the class association embedding (CAE) approach to address
these issues. We employ an encoder-decoder architecture to embed sample
features and separate them into class-related and individual-related style
vectors simultaneously. Recombining the individual-style code of a given sample
with the class-style code of another leads to a synthetic sample with preserved
individual characters but changed class assignment, following a cyclic
adversarial learning strategy. Class association embedding distills the global
class-related features of all instances into a unified domain with well
separation between classes. The transition rules between different classes can
be then extracted and further employed to individual instances. We then propose
an active XAI framework which manipulates the class-style vector of a certain
sample along guided paths towards the counter-classes, resulting in a series of
counter-example synthetic samples with identical individual characters.
Comparing these counterfactual samples with the original ones provides a
global, intuitive illustration to the nature of the classification tasks. We
adopt the framework on medical image classification tasks, which show that more
precise saliency maps with powerful context-aware representation can be
achieved compared with existing methods. Moreover, the disease pathology can be
directly visualized via traversing the paths in the class-style space.
- Abstract(参考訳): 説明可能性(Explainability)は、人工知能(AI)技術にとって大きな課題となる。
説明可能なAI(XAI)に関する最近の研究は、学習課題に関するグローバルな知識を抽出する効率を欠いているため、不正確さ、文脈認識の欠如、曖昧な意味などの欠陥を被っている。
本稿では,これらの問題に対処するクラスアソシエーション埋め込み(CAE)アプローチを提案する。
サンプル機能をエンコーダ-デコーダアーキテクチャで組み込んで,それらをクラスや個々のスタイルベクトルに同時に分離する。
あるサンプルの個々のスタイルコードと他のサンプルのクラススタイルコードを再結合すると、循環的対角学習戦略に従って、保存された個々の文字を持つ合成サンプルとなる。
クラスアソシエーションは、すべてのインスタンスのグローバルクラス関連の機能を、クラスをうまく分離した統一ドメインに蒸留する。
異なるクラス間の遷移ルールを抽出し、個々のインスタンスにさらに適用することができる。
そこで我々は,あるサンプルのクラス型ベクトルを対向クラスへ誘導する経路に沿って操作するアクティブXAIフレームワークを提案する。
これらのカウンターファクトのサンプルを元のサンプルと比較すると、分類タスクの性質をグローバルで直感的に説明できる。
医用画像分類タスクの枠組みを導入し,既存の手法と比較して,強力な文脈対応表現を備えた高精度なサリエンシマップを実現できることを示す。
さらに、病状はクラススタイルの空間の経路を横断することで直接可視化することができる。
関連論文リスト
- Accurate Explanation Model for Image Classifiers using Class Association Embedding [5.378105759529487]
本稿では,グローバルな知識とローカルな知識の利点を組み合わせた生成的説明モデルを提案する。
クラスアソシエーション埋め込み(CAE)は、各サンプルを1組のクラス関連コードと個別コードにエンコードする。
クラス関連特徴を個々の特徴から効率的に分離するビルディングブロック・コヒーレンシー特徴抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-12T07:41:00Z) - Semantic-Aware Dual Contrastive Learning for Multi-label Image
Classification [8.387933969327852]
本稿では,サンプル対サンプルのコントラスト学習を取り入れた,セマンティック・アウェアな2つのコントラスト学習フレームワークを提案する。
具体的には、セマンティック・アウェアな表現学習を活用して、カテゴリに関連する局所的識別特徴を抽出する。
提案手法は, 最先端の手法よりも有効であり, 性能も優れている。
論文 参考訳(メタデータ) (2023-07-19T01:57:31Z) - Lesion-Aware Contrastive Representation Learning for Histopathology
Whole Slide Images Analysis [16.264758789726223]
本稿では,スライド画像解析の病理組織学的手法として,Lesion-Aware Contrastive Learning (LACL) という新しいコントラスト表現学習フレームワークを提案する。
実験の結果,LACLは異なるデータセット上での組織像表現学習において,最高の性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-06-27T08:39:51Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Visual Transformer for Task-aware Active Learning [49.903358393660724]
プールベースのアクティブラーニングのための新しいパイプラインを提案する。
提案手法は,学習中に使用可能なアンラベリング例を利用して,ラベル付き例との相関関係を推定する。
ビジュアルトランスフォーマーは、ラベル付き例と非ラベル付き例の間の非ローカルビジュアル概念依存性をモデル化する。
論文 参考訳(メタデータ) (2021-06-07T17:13:59Z) - GAN for Vision, KG for Relation: a Two-stage Deep Network for Zero-shot
Action Recognition [33.23662792742078]
ゼロショット動作認識のための2段階のディープニューラルネットワークを提案する。
サンプリング段階では,授業の動作特徴と単語ベクトルによって訓練されたGAN(Generative Adversarial Network)を利用する。
分類段階において、アクションクラスの単語ベクトルと関連するオブジェクトの関係に基づいて知識グラフを構築する。
論文 参考訳(メタデータ) (2021-05-25T09:34:42Z) - Generative Multi-Label Zero-Shot Learning [136.17594611722285]
マルチラベルゼロショット学習は、トレーニング中にデータが入手できない複数の見えないカテゴリにイメージを分類する試みである。
我々の研究は、(一般化された)ゼロショット設定におけるマルチラベル機能の問題に最初に取り組みました。
私たちのクロスレベル核融合に基づく生成アプローチは、3つのデータセットすべてにおいて最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-01-27T18:56:46Z) - Symbiotic Adversarial Learning for Attribute-based Person Search [86.7506832053208]
本稿では,共生学習の枠組みとして,共生学習の基盤に2つのGANを配置する。
具体的には、2種類の生成的敵ネットワークがトレーニングプロセスを通して協調的に学習する。
論文 参考訳(メタデータ) (2020-07-19T07:24:45Z) - Latent Embedding Feedback and Discriminative Features for Zero-Shot
Classification [139.44681304276]
ゼロショット学習は、トレーニング中にデータが利用できない、見えないカテゴリを分類することを目的としている。
Generative Adrial Networksは、クラス固有のセマンティック埋め込みを利用して、目に見えないクラス機能を合成する。
我々は,ゼロショット学習のすべての段階において,意味的一貫性を強制することを提案する。
論文 参考訳(メタデータ) (2020-03-17T17:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。