論文の概要: SI-MIL: Taming Deep MIL for Self-Interpretability in Gigapixel
Histopathology
- arxiv url: http://arxiv.org/abs/2312.15010v1
- Date: Fri, 22 Dec 2023 18:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 20:09:44.533608
- Title: SI-MIL: Taming Deep MIL for Self-Interpretability in Gigapixel
Histopathology
- Title(参考訳): SI-MIL:ギガピクセル病理における自己解釈性のための深部MILのモデリング
- Authors: Saarthak Kapse, Pushpak Pati, Srijan Das, Jingwei Zhang, Chao Chen,
Maria Vakalopoulou, Joel Saltz, Dimitris Samaras, Rajarsi R. Gupta, Prateek
Prasanna
- Abstract要約: 自己解釈型MIL(英: Self-Interpretable MIL, SI-MIL)は、本質的には最初期の解釈性のために設計された手法である。
SI-MILは、手作りの病理学的特徴に基づく解釈可能な分岐を導くために、深いMILフレームワークを使用している。
線形予測制約により、SI-MILはモデル解釈可能性と性能の間の必然的なトレードオフの神話に挑戦する。
- 参考スコア(独自算出の注目度): 32.2499270894317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Introducing interpretability and reasoning into Multiple Instance Learning
(MIL) methods for Whole Slide Image (WSI) analysis is challenging, given the
complexity of gigapixel slides. Traditionally, MIL interpretability is limited
to identifying salient regions deemed pertinent for downstream tasks, offering
little insight to the end-user (pathologist) regarding the rationale behind
these selections. To address this, we propose Self-Interpretable MIL (SI-MIL),
a method intrinsically designed for interpretability from the very outset.
SI-MIL employs a deep MIL framework to guide an interpretable branch grounded
on handcrafted pathological features, facilitating linear predictions. Beyond
identifying salient regions, SI-MIL uniquely provides feature-level
interpretations rooted in pathological insights for WSIs. Notably, SI-MIL, with
its linear prediction constraints, challenges the prevalent myth of an
inevitable trade-off between model interpretability and performance,
demonstrating competitive results compared to state-of-the-art methods on
WSI-level prediction tasks across three cancer types. In addition, we
thoroughly benchmark the local- and global-interpretability of SI-MIL in terms
of statistical analysis, a domain expert study, and desiderata of
interpretability, namely, user-friendliness and faithfulness.
- Abstract(参考訳): ギガピクセルスライドの複雑さを考えると、全スライド画像(WSI)解析のための解釈可能性と推論をMIL(Multiple Instance Learning)手法に導入することは困難である。
伝統的に、ミル解釈性は下流タスクに適していると考えられる突出した領域を特定することに限定されており、これらの選択の背景にある根拠についてエンドユーザー(病理学者)にほとんど洞察を与えていない。
そこで本研究では,自己解釈型MIL(Self-Interpretable MIL, SI-MIL)を提案する。
SI-MILは、手作りの病理的特徴に基づく解釈可能な分岐をガイドし、線形予測を容易にする。
SI-MILは、正常な領域を識別する以外に、WSIの病理学的洞察に根ざした特徴レベルの解釈を提供する。
特に、SI-MILは線形予測制約を伴い、モデル解釈可能性と性能の間の必然的なトレードオフの神話に挑戦し、3種類の癌に対してWSIレベルの予測タスクに関する最先端の手法と比較して、競争の結果を示す。
さらに,si-milの局所的およびグローバル的解釈可能性について,統計的分析,ドメインエキスパート研究,解釈可能性のデシデラタ,すなわちユーザフレンドリーさと忠実性の観点から徹底的に評価した。
関連論文リスト
- Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - xMIL: Insightful Explanations for Multiple Instance Learning in Histopathology [13.939494815120666]
マルチ・インスタンス・ラーニング(MIL)は、弱教師付き機械学習において効果的で広く利用されている手法である。
我々は、説明可能なAI(XAI)のレンズを通してMILを再考し、より一般的な仮定を持つ洗練されたフレームワークであるxMILを紹介した。
提案手法は, バイオマーカー予測タスクにおいて, 特に忠実度が向上し, 従来の説明手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-06T17:26:40Z) - Chain-of-Thought Prompting for Demographic Inference with Large Multimodal Models [58.58594658683919]
大規模マルチモーダルモデル (LMM) は、様々な研究課題において変換可能性を示している。
以上の結果から,LMMはゼロショット学習,解釈可能性,未修正入力の処理に長所があることが示唆された。
本稿では,目標外予測問題を効果的に緩和するChain-of-Thought拡張プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T16:26:56Z) - Embedding Trajectory for Out-of-Distribution Detection in Mathematical Reasoning [50.84938730450622]
数理推論におけるOOD検出にトラジェクトリボラティリティを用いたトラジェクトリベースのTVスコアを提案する。
本手法は, 数学的推論シナリオ下でのGLM上での従来のアルゴリズムよりも優れる。
提案手法は,複数選択質問などの出力空間における高密度特徴を持つアプリケーションに拡張することができる。
論文 参考訳(メタデータ) (2024-05-22T22:22:25Z) - Hyperbolic Secant representation of the logistic function: Application to probabilistic Multiple Instance Learning for CT intracranial hemorrhage detection [0.0]
マルチ・インスタンス・ラーニング (MIL) は、様々な科学分野にうまく適用された弱い教師付きパラダイムである。
本稿では,Hyperbolic Secant以外の分布を単純に活用することで,異なる形状のGPベースのMIL法を提案する。
これは、合成MILデータセット1つ、よく知られたMILベンチマーク2つ、現実世界の医療問題を含む総合的な実験で検証されている。
論文 参考訳(メタデータ) (2024-03-21T20:43:34Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - PDL: Regularizing Multiple Instance Learning with Progressive Dropout Layers [2.069061136213899]
多重インスタンス学習(MIL)は、バッグとして知られるインスタンスのコレクションにバイナリクラスラベルを割り当てようとする、弱い教師付き学習アプローチである。
本稿では,複雑な特徴表現の発見において,MILモデルの過度な適合と強化を図るために,プログレッシブ・ドロップアウト・レイヤ(PDL)という手法を提案する。
論文 参考訳(メタデータ) (2023-08-19T21:20:30Z) - AdvMIL: Adversarial Multiple Instance Learning for the Survival Analysis
on Whole-Slide Images [12.09957276418002]
本稿では,新しい逆多重インスタンス学習(AdvMIL)フレームワークを提案する。
このフレームワークは、WSI表現学習に非常に必要な多重インスタンス学習(MIL)を統合する。
実験の結果,AdvMILは比較的低コストで主要なWSIサバイバル分析手法に性能改善をもたらすだけでなく,半教師付き学習によるラベルなしデータの有効活用を可能にした。
論文 参考訳(メタデータ) (2022-12-13T12:02:05Z) - Interpretable Social Anchors for Human Trajectory Forecasting in Crowds [84.20437268671733]
本研究では,人混みの軌跡を予測できるニューラルネットワークシステムを提案する。
解釈可能なルールベースのインテントを学び、ニューラルネットワークの表現可能性を利用してシーン固有の残差をモデル化する。
私たちのアーキテクチャは、インタラクション中心のベンチマークTrajNet++でテストされています。
論文 参考訳(メタデータ) (2021-05-07T09:22:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。