論文の概要: ProtoMIL: Multiple Instance Learning with Prototypical Parts for
Fine-Grained Interpretability
- arxiv url: http://arxiv.org/abs/2108.10612v1
- Date: Tue, 24 Aug 2021 10:02:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 18:12:05.291861
- Title: ProtoMIL: Multiple Instance Learning with Prototypical Parts for
Fine-Grained Interpretability
- Title(参考訳): ProtoMIL: ファイングレード・インタプリタビリティのためのプロトタイプ部分を用いた複数インスタンス学習
- Authors: Dawid Rymarczyk and Aneta Kaczy\'nska and Jaros{\l}aw Kraus and Adam
Pardyl and Bartosz Zieli\'nski
- Abstract要約: マルチインスタンス学習(MIL)は、教師付きの弱い性質のため、多くの実生活の機械学習アプリケーションで人気を博している。
本稿では,視覚プロトタイプで動作するケースベース推論プロセスにインスパイアされた,自己説明可能な新しいMIL手法であるProtoMILを紹介する。
ProtoMILは、オブジェクト記述にプロトタイプ機能を組み込むことで、モデル精度と微妙な解釈可能性に前例のない結合を実現している。
- 参考スコア(独自算出の注目度): 2.094672430475796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiple Instance Learning (MIL) gains popularity in many real-life machine
learning applications due to its weakly supervised nature. However, the
corresponding effort on explaining MIL lags behind, and it is usually limited
to presenting instances of a bag that are crucial for a particular prediction.
In this paper, we fill this gap by introducing ProtoMIL, a novel
self-explainable MIL method inspired by the case-based reasoning process that
operates on visual prototypes. Thanks to incorporating prototypical features
into objects description, ProtoMIL unprecedentedly joins the model accuracy and
fine-grained interpretability, which we present with the experiments on five
recognized MIL datasets.
- Abstract(参考訳): マルチインスタンス学習(mil:multiple instance learning)は、多くの現実の機械学習アプリケーションで人気を集めている。
しかしながら、ミルを説明するための対応する取り組みは遅れており、通常は特定の予測に不可欠なバッグのインスタンスを提示することに限られる。
本稿では,視覚プロトタイプで動作するケースベース推論プロセスに触発された自己説明可能なMIL手法であるProtoMILを導入することにより,このギャップを埋める。
ProtoMILは、オブジェクト記述に原型的特徴を組み込むことにより、モデル精度と細粒度解釈可能性に前例のない結合を行い、5つのMILデータセットで実験を行った。
関連論文リスト
- xMIL: Insightful Explanations for Multiple Instance Learning in Histopathology [13.939494815120666]
複数のインスタンス学習(MIL)モデルは、腫瘍検出、バイオマーカー予測、結果予測といったタスクで顕著に成功している。
我々は、説明可能なAI(XAI)のレンズを通してMILを再考し、より一般的な仮定を持つ洗練されたフレームワークであるxMILを紹介した。
提案手法は, バイオマーカー予測タスクにおいて, 特に忠実度が向上し, 従来の説明手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-06T17:26:40Z) - Hyperbolic Secant representation of the logistic function: Application to probabilistic Multiple Instance Learning for CT intracranial hemorrhage detection [0.0]
マルチ・インスタンス・ラーニング (MIL) は、様々な科学分野にうまく適用された弱い教師付きパラダイムである。
本稿では,Hyperbolic Secant以外の分布を単純に活用することで,異なる形状のGPベースのMIL法を提案する。
これは、合成MILデータセット1つ、よく知られたMILベンチマーク2つ、現実世界の医療問題を含む総合的な実験で検証されている。
論文 参考訳(メタデータ) (2024-03-21T20:43:34Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State
Space Models [58.39336492765728]
がん診断のゴールドスタンダードである病理診断は、TransformerとMIL(Multiple Case Learning)フレームワークを併用して、全スライド画像(WSI)を用いて、優れたパフォーマンスを実現している。
選択的構造化状態空間モデル(Mamba)とMILとの協調によるWSI分類のためのMamMILフレームワークを提案する。
具体的には、マンバが一方向一次元(一次元)シーケンスモデリングしか行えないという問題を解決するため、双方向状態空間モデルと2次元コンテキスト認識ブロックを革新的に導入する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - Reproducibility in Multiple Instance Learning: A Case For Algorithmic
Unit Tests [59.623267208433255]
多重インスタンス学習(MIL)は、正と負のラベルと入力の「バグ」を持つ分類問題のサブドメインである。
本研究では,最も顕著な深層MILモデルの5つについて検討し,いずれも標準MILの仮定を尊重していないことを明らかにする。
提案した"アルゴリズムユニットテスト"によってこの問題を特定し,実証する。そこでは,MILを尊重するモデルによって解決可能な,合成データセットを作成する。
論文 参考訳(メタデータ) (2023-10-27T03:05:11Z) - PDL: Regularizing Multiple Instance Learning with Progressive Dropout Layers [2.069061136213899]
多重インスタンス学習(MIL)は、バッグとして知られるインスタンスのコレクションにバイナリクラスラベルを割り当てようとする、弱い教師付き学習アプローチである。
本稿では,複雑な特徴表現の発見において,MILモデルの過度な適合と強化を図るために,プログレッシブ・ドロップアウト・レイヤ(PDL)という手法を提案する。
論文 参考訳(メタデータ) (2023-08-19T21:20:30Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - CIL: Contrastive Instance Learning Framework for Distantly Supervised
Relation Extraction [52.94486705393062]
我々は、典型的なマルチインスタンス学習(MIL)フレームワークを超えて、新しいコントラッシブ・インスタンス学習(CIL)フレームワークを提案する。
具体的には、初期MILをリレーショナルトリプルエンコーダと各インスタンスに対する負のペアに対する制約正のペアとみなす。
提案手法の有効性を実験的に検証し, 提案手法をNYT10, GDS, KBPで比較検討した。
論文 参考訳(メタデータ) (2021-06-21T04:51:59Z) - Masked Language Modeling and the Distributional Hypothesis: Order Word
Matters Pre-training for Little [74.49773960145681]
マスク言語モデル(MLM)トレーニングの印象的なパフォーマンスの可能な説明は、そのようなモデルがNLPパイプラインで広く普及している構文構造を表現することを学びました。
本稿では,先行訓練がダウンストリームタスクでほぼ完全に成功する理由として,高次単語共起統計をモデル化できることを挙げる。
以上の結果から,純粋分布情報は,事前学習の成功を主に説明し,深い言語知識を必要とする難易度評価データセットのキュレーションの重要性を強調する。
論文 参考訳(メタデータ) (2021-04-14T06:30:36Z) - Dual-stream Maximum Self-attention Multi-instance Learning [11.685285490589981]
MIL(Multi-Instance Learning)は、インスタンスレベルのラベルが利用できない間に単一のクラスラベルがインスタンスのバッグに割り当てられる弱い教師付き学習の一種である。
ニューラルネットワークによりパラメータ化されたDSMILモデル(Dual-stream maximum self-attention MIL model)を提案する。
提案手法は,最高のMIL手法と比較して優れた性能を示し,ベンチマークMILデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2020-06-09T22:44:58Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。