論文の概要: Dual-stream Maximum Self-attention Multi-instance Learning
- arxiv url: http://arxiv.org/abs/2006.05538v1
- Date: Tue, 9 Jun 2020 22:44:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 14:17:54.622127
- Title: Dual-stream Maximum Self-attention Multi-instance Learning
- Title(参考訳): 2ストリーム最大自己注意型マルチインスタンス学習
- Authors: Bin Li, Kevin W. Eliceiri
- Abstract要約: MIL(Multi-Instance Learning)は、インスタンスレベルのラベルが利用できない間に単一のクラスラベルがインスタンスのバッグに割り当てられる弱い教師付き学習の一種である。
ニューラルネットワークによりパラメータ化されたDSMILモデル(Dual-stream maximum self-attention MIL model)を提案する。
提案手法は,最高のMIL手法と比較して優れた性能を示し,ベンチマークMILデータセット上での最先端性能を示す。
- 参考スコア(独自算出の注目度): 11.685285490589981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-instance learning (MIL) is a form of weakly supervised learning where a
single class label is assigned to a bag of instances while the instance-level
labels are not available. Training classifiers to accurately determine the bag
label and instance labels is a challenging but critical task in many practical
scenarios, such as computational histopathology. Recently, MIL models fully
parameterized by neural networks have become popular due to the high
flexibility and superior performance. Most of these models rely on attention
mechanisms that assign attention scores across the instance embeddings in a bag
and produce the bag embedding using an aggregation operator. In this paper, we
proposed a dual-stream maximum self-attention MIL model (DSMIL) parameterized
by neural networks. The first stream deploys a simple MIL max-pooling while the
top-activated instance embedding is determined and used to obtain
self-attention scores across instance embeddings in the second stream.
Different from most of the previous methods, the proposed model jointly learns
an instance classifier and a bag classifier based on the same instance
embeddings. The experiments results show that our method achieves superior
performance compared to the best MIL methods and demonstrates state-of-the-art
performance on benchmark MIL datasets.
- Abstract(参考訳): MIL(Multi-Instance Learning)は、インスタンスレベルのラベルが利用できない間に単一のクラスラベルがインスタンスのバッグに割り当てられる弱い教師付き学習の一種である。
バッグラベルとインスタンスラベルを正確に判定するための分類器の訓練は、計算病理学のような多くの実践シナリオにおいて難しいが重要な課題である。
近年、ニューラルネットワークによって完全にパラメータ化されたMILモデルは、高い柔軟性と優れた性能のために人気を博している。
これらのモデルのほとんどは、バッグに埋め込まれたインスタンス全体に注意スコアを割り当て、アグリゲーション演算子を使用してバッグ埋め込みを生成するアテンションメカニズムに依存している。
本稿では,ニューラルネットワークによってパラメータ化されるdsmil(dual-stream maximum self-attention mil model)を提案する。
第1ストリームは単純なMIL最大プールをデプロイし、トップアクティベートされたインスタンスの埋め込みが決定され、第2ストリームへのインスタンスの埋め込みにまたがる自己アテンションスコアを取得するために使用される。
従来の手法と異なり、提案モデルは同一のインスタンス埋め込みに基づいてインスタンス分類器とバッグ分類器を共同で学習する。
実験の結果,提案手法は最高のMIL手法と比較して優れた性能を示し,ベンチマークMILデータセット上での最先端性能を示す。
関連論文リスト
- Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - Rethinking Multiple Instance Learning for Whole Slide Image Classification: A Good Instance Classifier is All You Need [18.832471712088353]
MIL設定下では,インスタンスレベルの弱教師付きコントラスト学習アルゴリズムを初めて提案する。
また,プロトタイプ学習による正確な擬似ラベル生成手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T12:44:52Z) - Leveraging Instance Features for Label Aggregation in Programmatic Weak
Supervision [75.1860418333995]
Programmatic Weak Supervision (PWS) は、トレーニングラベルを効率的に合成するための広く普及したパラダイムとして登場した。
PWSのコアコンポーネントはラベルモデルであり、複数のノイズ管理ソースの出力をラベル関数として集約することで、真のラベルを推論する。
既存の統計ラベルモデルは一般的にLFの出力のみに依存し、基礎となる生成過程をモデル化する際のインスタンスの特徴を無視している。
論文 参考訳(メタデータ) (2022-10-06T07:28:53Z) - Feature Re-calibration based MIL for Whole Slide Image Classification [7.92885032436243]
全スライド画像(WSI)分類は疾患の診断と治療の基本的な課題である。
本稿では,WSI バッグ (インスタンス) の分布を,最大インスタンス (クリティカル) 特性の統計値を用いて再校正することを提案する。
位置符号化モジュール(PEM)を用いて空間・形態情報をモデル化し,マルチヘッド自己アテンション(PSMA)をトランスフォーマーエンコーダでプーリングする。
論文 参考訳(メタデータ) (2022-06-22T07:00:39Z) - Attention Awareness Multiple Instance Neural Network [4.061135251278187]
本稿では,マルチインスタンスニューラルネットワークフレームワークを提案する。
インスタンスレベルの分類器と、空間的注意に基づくトレーニング可能なMILプーリング演算子と、バッグレベルの分類層で構成される。
一連のパターン認識タスクに対する実証実験により、我々のフレームワークは最先端のMILメソッドよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-27T03:29:17Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Momentum Pseudo-Labeling for Semi-Supervised Speech Recognition [55.362258027878966]
本稿では,半教師付き音声認識のための簡易かつ効果的な手法として,モーメント擬似ラベル(MPL)を提案する。
MPLは、平均的な教師メソッドにインスパイアされて、相互に相互作用し、学習するオンラインとオフラインの2つのモデルで構成されている。
実験の結果,MPLはベースモデルよりも効果的に改善され,様々な半教師付きシナリオに拡張可能であることが示された。
論文 参考訳(メタデータ) (2021-06-16T16:24:55Z) - A Visual Mining Approach to Improved Multiple-Instance Learning [3.611492083936225]
MIL(Multiple-Instance Learning)は、オブジェクト(インスタンス)の集合(バッグ)を分類し、ラベルをバッグのみに割り当てることを目的とした機械学習のパラダイムである。
MILをサポートするため,マルチスケールのツリーベースビジュアライゼーションを提案する。
木の最初のレベルはバッグを表し、2番目のレベルは各バッグに属するインスタンスを表します。
論文 参考訳(メタデータ) (2020-12-14T05:12:43Z) - Dual-stream Multiple Instance Learning Network for Whole Slide Image
Classification with Self-supervised Contrastive Learning [16.84711797934138]
スライド画像全体分類(WSI)の課題に対処する。
WSI分類は、スライドレベルラベルのみが利用可能である場合、多重インスタンス学習(MIL)問題としてキャストすることができる。
局所アノテーションを必要としないWSI分類と腫瘍検出のためのMILベースの手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T20:51:15Z) - Memory-Augmented Relation Network for Few-Shot Learning [114.47866281436829]
本研究では,新しい距離学習手法であるメモリ拡張リレーショナルネットワーク(MRN)について検討する。
MRNでは、作業状況と視覚的に類似したサンプルを選択し、重み付け情報伝搬を行い、選択したサンプルから有用な情報を注意深く集約し、その表現を強化する。
我々は、MRNが祖先よりも大幅に向上し、他の数発の学習手法と比較して、競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2020-05-09T10:09:13Z) - Weakly-Supervised Action Localization with Expectation-Maximization
Multi-Instance Learning [82.41415008107502]
弱教師付きアクションローカライゼーションでは、ビデオレベルアクションラベルのみを与えられたビデオ内のアクションセグメントをローカライズするモデルをトレーニングする必要がある。
バッグ(ビデオ)には複数のインスタンス(アクションセグメント)が含まれている。
我々のEM-MILアプローチは、学習目標とMIL仮定の両方をより正確にモデル化することを示します。
論文 参考訳(メタデータ) (2020-03-31T23:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。