論文の概要: Smooth Attention for Deep Multiple Instance Learning: Application to CT
Intracranial Hemorrhage Detection
- arxiv url: http://arxiv.org/abs/2307.09457v1
- Date: Tue, 18 Jul 2023 17:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 13:37:15.047647
- Title: Smooth Attention for Deep Multiple Instance Learning: Application to CT
Intracranial Hemorrhage Detection
- Title(参考訳): 深層学習におけるスムーズな注意:CT頭蓋内出血検出への応用
- Authors: Yunan Wu, Francisco M. Castro-Mac\'ias, Pablo Morales-\'Alvarez,
Rafael Molina, Aggelos K. Katsaggelos
- Abstract要約: マルチインスタンスラーニング(MIL)は、バッグラベルが知られ、バッグ内のインスタンスラベルが不明な医療画像診断に広く応用されている。
本研究では,スムーズな注意深度MIL(SA-DMIL)モデルを提案する。
スムースネスは、バッグ内の各インスタンスに支払われた注意を符号化する潜在関数に、第1および第2の制約を導入することによって達成される。
- 参考スコア(独自算出の注目度): 17.27358760040812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple Instance Learning (MIL) has been widely applied to medical imaging
diagnosis, where bag labels are known and instance labels inside bags are
unknown. Traditional MIL assumes that instances in each bag are independent
samples from a given distribution. However, instances are often spatially or
sequentially ordered, and one would expect similar diagnostic importance for
neighboring instances. To address this, in this study, we propose a smooth
attention deep MIL (SA-DMIL) model. Smoothness is achieved by the introduction
of first and second order constraints on the latent function encoding the
attention paid to each instance in a bag. The method is applied to the
detection of intracranial hemorrhage (ICH) on head CT scans. The results show
that this novel SA-DMIL: (a) achieves better performance than the non-smooth
attention MIL at both scan (bag) and slice (instance) levels; (b) learns
spatial dependencies between slices; and (c) outperforms current
state-of-the-art MIL methods on the same ICH test set.
- Abstract(参考訳): マルチインスタンスラーニング(MIL)は、バッグラベルが知られ、バッグ内のインスタンスラベルが不明な医療画像診断に広く応用されている。
従来のMILでは、各バッグのインスタンスは所定の分布から独立したサンプルであると仮定している。
しかし、インスタンスは、しばしば空間的または順序的に順序付けされ、近隣のインスタンスも同様の診断の重要性を期待する。
そこで本研究では,smoous attention deep mil (sa-dmil)モデルを提案する。
バッグ内の各インスタンスに支払われる注意をエンコードする潜在関数に対して、第1および第2次制約を導入することにより、滑らか性が実現される。
頭部CTにおける頭蓋内出血(ICH)の検出に本法を適用した。
その結果,この小説のSA-DMILが示唆された。
a)スキャン(バッグ)レベルとスライス(インスタンス)レベルの両方において、非スムースアテンションMILよりも優れたパフォーマンスを達成する。
b)スライス間の空間的依存関係を学習し,
c) は同じ ich テストセットで現在の mil メソッドよりも優れています。
関連論文リスト
- Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - Reproducibility in Multiple Instance Learning: A Case For Algorithmic
Unit Tests [59.623267208433255]
多重インスタンス学習(MIL)は、正と負のラベルと入力の「バグ」を持つ分類問題のサブドメインである。
本研究では,最も顕著な深層MILモデルの5つについて検討し,いずれも標準MILの仮定を尊重していないことを明らかにする。
提案した"アルゴリズムユニットテスト"によってこの問題を特定し,実証する。そこでは,MILを尊重するモデルによって解決可能な,合成データセットを作成する。
論文 参考訳(メタデータ) (2023-10-27T03:05:11Z) - Deep Multiple Instance Learning with Distance-Aware Self-Attention [9.361964965928063]
距離認識型自己注意型MILモデル(DAS-MIL)を提案する。
離散的な自己注意のための既存の相対的な位置表現とは異なり、我々の手法は注意重みの計算に連続的な距離依存項を導入する。
MNISTをベースとしたカスタムMILデータセットと,CAMELYON16で利用可能な癌転移検出データセットであるCAMELYON16を用いて,本モデルの評価を行った。
論文 参考訳(メタデータ) (2023-05-17T20:11:43Z) - Unbiased Multiple Instance Learning for Weakly Supervised Video Anomaly
Detection [74.80595632328094]
弱監視ビデオ異常検出(WSVAD)における多重インスタンス学習(MIL)の優位性
We propose a new MIL framework: Unbiased MIL (UMIL) to learn unbiased anomaly features that improve WSVAD。
論文 参考訳(メタデータ) (2023-03-22T08:11:22Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - Multiplex-detection Based Multiple Instance Learning Network for Whole
Slide Image Classification [2.61155594652503]
マルチ・インスタンス・ラーニング(MIL)は、診断病理のためのスライド画像全体(WSI)を分類する強力な手法である。
本稿では,上記の問題に対処するために,MDMIL(Multiple-detection-based multiple instance learning)を提案する。
具体的には、MDMILは内部クエリ生成モジュール(IQGM)と多重検出モジュール(MDM)によって構成される。
論文 参考訳(メタデータ) (2022-08-06T14:36:48Z) - Feature Re-calibration based MIL for Whole Slide Image Classification [7.92885032436243]
全スライド画像(WSI)分類は疾患の診断と治療の基本的な課題である。
本稿では,WSI バッグ (インスタンス) の分布を,最大インスタンス (クリティカル) 特性の統計値を用いて再校正することを提案する。
位置符号化モジュール(PEM)を用いて空間・形態情報をモデル化し,マルチヘッド自己アテンション(PSMA)をトランスフォーマーエンコーダでプーリングする。
論文 参考訳(メタデータ) (2022-06-22T07:00:39Z) - Label Cleaning Multiple Instance Learning: Refining Coarse Annotations
on Single Whole-Slide Images [83.7047542725469]
病理検体の全スライディング画像(WSI)における癌領域のアノテーションは、臨床診断、生医学研究、機械学習アルゴリズムの開発において重要な役割を担っている。
本稿では,外部トレーニングデータを必要とせず,単一のWSI上で粗いアノテーションを洗練するためのLC-MIL (Label Cleaning Multiple Instance Learning) を提案する。
乳癌リンパ節転移,肝癌,大腸癌の検体を併用した異種 WSI 実験の結果,LC-MIL は粗いアノテーションを著しく改善し,単一スライドから学習しながらも,最先端の代替品よりも優れていた。
論文 参考訳(メタデータ) (2021-09-22T15:06:06Z) - Sparse Network Inversion for Key Instance Detection in Multiple Instance
Learning [24.66638752977373]
複数インスタンス学習(MIL)では、バッグレベルの正または負のラベルを与えられたインスタンスの袋の1つのラベルを予測する。
注目に基づくディープMILモデルは、バッグレベルの分類とキーインスタンス検出の両方において最近の進歩である。
KIDタスクにおける注意に基づく深層MILモデルの改善手法を提案する。
論文 参考訳(メタデータ) (2020-09-07T07:01:59Z) - Dual-stream Maximum Self-attention Multi-instance Learning [11.685285490589981]
MIL(Multi-Instance Learning)は、インスタンスレベルのラベルが利用できない間に単一のクラスラベルがインスタンスのバッグに割り当てられる弱い教師付き学習の一種である。
ニューラルネットワークによりパラメータ化されたDSMILモデル(Dual-stream maximum self-attention MIL model)を提案する。
提案手法は,最高のMIL手法と比較して優れた性能を示し,ベンチマークMILデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2020-06-09T22:44:58Z) - Weakly-Supervised Action Localization with Expectation-Maximization
Multi-Instance Learning [82.41415008107502]
弱教師付きアクションローカライゼーションでは、ビデオレベルアクションラベルのみを与えられたビデオ内のアクションセグメントをローカライズするモデルをトレーニングする必要がある。
バッグ(ビデオ)には複数のインスタンス(アクションセグメント)が含まれている。
我々のEM-MILアプローチは、学習目標とMIL仮定の両方をより正確にモデル化することを示します。
論文 参考訳(メタデータ) (2020-03-31T23:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。