論文の概要: SI-MIL: Taming Deep MIL for Self-Interpretability in Gigapixel
Histopathology
- arxiv url: http://arxiv.org/abs/2312.15010v1
- Date: Fri, 22 Dec 2023 18:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 20:09:44.533608
- Title: SI-MIL: Taming Deep MIL for Self-Interpretability in Gigapixel
Histopathology
- Title(参考訳): SI-MIL:ギガピクセル病理における自己解釈性のための深部MILのモデリング
- Authors: Saarthak Kapse, Pushpak Pati, Srijan Das, Jingwei Zhang, Chao Chen,
Maria Vakalopoulou, Joel Saltz, Dimitris Samaras, Rajarsi R. Gupta, Prateek
Prasanna
- Abstract要約: 自己解釈型MIL(英: Self-Interpretable MIL, SI-MIL)は、本質的には最初期の解釈性のために設計された手法である。
SI-MILは、手作りの病理学的特徴に基づく解釈可能な分岐を導くために、深いMILフレームワークを使用している。
線形予測制約により、SI-MILはモデル解釈可能性と性能の間の必然的なトレードオフの神話に挑戦する。
- 参考スコア(独自算出の注目度): 32.2499270894317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Introducing interpretability and reasoning into Multiple Instance Learning
(MIL) methods for Whole Slide Image (WSI) analysis is challenging, given the
complexity of gigapixel slides. Traditionally, MIL interpretability is limited
to identifying salient regions deemed pertinent for downstream tasks, offering
little insight to the end-user (pathologist) regarding the rationale behind
these selections. To address this, we propose Self-Interpretable MIL (SI-MIL),
a method intrinsically designed for interpretability from the very outset.
SI-MIL employs a deep MIL framework to guide an interpretable branch grounded
on handcrafted pathological features, facilitating linear predictions. Beyond
identifying salient regions, SI-MIL uniquely provides feature-level
interpretations rooted in pathological insights for WSIs. Notably, SI-MIL, with
its linear prediction constraints, challenges the prevalent myth of an
inevitable trade-off between model interpretability and performance,
demonstrating competitive results compared to state-of-the-art methods on
WSI-level prediction tasks across three cancer types. In addition, we
thoroughly benchmark the local- and global-interpretability of SI-MIL in terms
of statistical analysis, a domain expert study, and desiderata of
interpretability, namely, user-friendliness and faithfulness.
- Abstract(参考訳): ギガピクセルスライドの複雑さを考えると、全スライド画像(WSI)解析のための解釈可能性と推論をMIL(Multiple Instance Learning)手法に導入することは困難である。
伝統的に、ミル解釈性は下流タスクに適していると考えられる突出した領域を特定することに限定されており、これらの選択の背景にある根拠についてエンドユーザー(病理学者)にほとんど洞察を与えていない。
そこで本研究では,自己解釈型MIL(Self-Interpretable MIL, SI-MIL)を提案する。
SI-MILは、手作りの病理的特徴に基づく解釈可能な分岐をガイドし、線形予測を容易にする。
SI-MILは、正常な領域を識別する以外に、WSIの病理学的洞察に根ざした特徴レベルの解釈を提供する。
特に、SI-MILは線形予測制約を伴い、モデル解釈可能性と性能の間の必然的なトレードオフの神話に挑戦し、3種類の癌に対してWSIレベルの予測タスクに関する最先端の手法と比較して、競争の結果を示す。
さらに,si-milの局所的およびグローバル的解釈可能性について,統計的分析,ドメインエキスパート研究,解釈可能性のデシデラタ,すなわちユーザフレンドリーさと忠実性の観点から徹底的に評価した。
関連論文リスト
- On the Semantics of LM Latent Space: A Vocabulary-defined Approach [29.55309950026882]
本稿では,LM潜在空間内で参照フレームを確立する語彙定義セマンティクスを提案する。
我々のアプローチは、モデル中心の洞察にLM語彙を活用する、事前の絡み合った分析を超越する。
また,ロジットを計算し,微分可能性や局所等方性を重視した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-29T14:29:48Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field
and Online Inference [50.91823345296243]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - PDL: Regularizing Multiple Instance Learning with Progressive Dropout
Layers [2.2774820679812695]
多重インスタンス学習(MIL)は、バッグとして知られるインスタンスのコレクションにバイナリクラスラベルを割り当てようとする、弱い教師付き学習アプローチである。
本稿では,複雑な特徴表現の発見において,MILモデルの過度な適合と強化を図るために,プログレッシブ・ドロップアウト・レイヤ(PDL)という手法を提案する。
論文 参考訳(メタデータ) (2023-08-19T21:20:30Z) - AdvMIL: Adversarial Multiple Instance Learning for the Survival Analysis
on Whole-Slide Images [12.09957276418002]
本稿では,新しい逆多重インスタンス学習(AdvMIL)フレームワークを提案する。
このフレームワークは、WSI表現学習に非常に必要な多重インスタンス学習(MIL)を統合する。
実験の結果,AdvMILは比較的低コストで主要なWSIサバイバル分析手法に性能改善をもたらすだけでなく,半教師付き学習によるラベルなしデータの有効活用を可能にした。
論文 参考訳(メタデータ) (2022-12-13T12:02:05Z) - Histopathological Image Classification based on Self-Supervised Vision
Transformer and Weak Labels [16.865729758055448]
本稿では,スライドレベルのアノテーションに基づく癌領域の分類と局所化のための新しいアプローチであるSelf-ViT-MILを提案する。
Self-ViT-MILは、既存の最先端のMILベースのアプローチを、曲線の精度と面積の点で上回っている。
論文 参考訳(メタデータ) (2022-10-17T12:43:41Z) - Regret Analysis in Deterministic Reinforcement Learning [78.31410227443102]
本稿では,最適学習アルゴリズムの分析と設計の中心となる後悔の問題を考察する。
本稿では,システムパラメータに明示的に依存する対数問題固有の後悔の下位境界について述べる。
論文 参考訳(メタデータ) (2021-06-27T23:41:57Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Interpretable Social Anchors for Human Trajectory Forecasting in Crowds [84.20437268671733]
本研究では,人混みの軌跡を予測できるニューラルネットワークシステムを提案する。
解釈可能なルールベースのインテントを学び、ニューラルネットワークの表現可能性を利用してシーン固有の残差をモデル化する。
私たちのアーキテクチャは、インタラクション中心のベンチマークTrajNet++でテストされています。
論文 参考訳(メタデータ) (2021-05-07T09:22:34Z) - Computational analysis of pathological image enables interpretable
prediction for microsatellite instability [5.774965366076466]
マイクロサテライト不安定症 (MSI) はいくつかの腫瘍タイプに関連付けられ, 患者治療決定の導出においてその地位はますます重要になっている。
本研究は,医療専門家が自動的にMSIを識別するのを支援するために,病的画像解析戦略を確立するものである。
これらの戦略は、ユビキタスなヘマトキシリンと、エオシンを染色した全スライド画像しか必要とせず、The Cancer Genome Atlasから収集された3つのコホートで十分な性能を発揮する。
論文 参考訳(メタデータ) (2020-10-07T03:05:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。