論文の概要: Sparse Network Inversion for Key Instance Detection in Multiple Instance
Learning
- arxiv url: http://arxiv.org/abs/2009.02909v2
- Date: Tue, 8 Sep 2020 01:09:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:20:57.421920
- Title: Sparse Network Inversion for Key Instance Detection in Multiple Instance
Learning
- Title(参考訳): 複数インスタンス学習におけるキーインスタンス検出のためのスパースネットワークインバージョン
- Authors: Beomjo Shin, Junsu Cho, Hwanjo Yu, Seungjin Choi
- Abstract要約: 複数インスタンス学習(MIL)では、バッグレベルの正または負のラベルを与えられたインスタンスの袋の1つのラベルを予測する。
注目に基づくディープMILモデルは、バッグレベルの分類とキーインスタンス検出の両方において最近の進歩である。
KIDタスクにおける注意に基づく深層MILモデルの改善手法を提案する。
- 参考スコア(独自算出の注目度): 24.66638752977373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple Instance Learning (MIL) involves predicting a single label for a bag
of instances, given positive or negative labels at bag-level, without accessing
to label for each instance in the training phase. Since a positive bag contains
both positive and negative instances, it is often required to detect positive
instances (key instances) when a set of instances is categorized as a positive
bag. The attention-based deep MIL model is a recent advance in both bag-level
classification and key instance detection (KID). However, if the positive and
negative instances in a positive bag are not clearly distinguishable, the
attention-based deep MIL model has limited KID performance as the attention
scores are skewed to few positive instances. In this paper, we present a method
to improve the attention-based deep MIL model in the task of KID. The main idea
is to use the neural network inversion to find which instances made
contribution to the bag-level prediction produced by the trained MIL model.
Moreover, we incorporate a sparseness constraint into the neural network
inversion, leading to the sparse network inversion which is solved by the
proximal gradient method. Numerical experiments on an MNIST-based image MIL
dataset and two real-world histopathology datasets verify the validity of our
method, demonstrating the KID performance is significantly improved while the
performance of bag-level prediction is maintained.
- Abstract(参考訳): 複数インスタンス学習(MIL)では、トレーニングフェーズで各インスタンスのラベルにアクセスすることなく、バッグレベルで正または負のラベルが与えられたインスタンスの袋の1つのラベルを予測する。
正のバッグには正のインスタンスと負のインスタンスの両方が含まれているため、複数のインスタンスが正のバッグに分類された場合、正のインスタンス(キーのインスタンス)を検出することがしばしば必要となる。
注目に基づくディープMILモデルは、バッグレベルの分類とキーインスタンス検出(KID)の両方において最近の進歩である。
しかし、正の袋の中の正のインスタンスと負のインスタンスが明確に区別できない場合、注意に基づく深部MILモデルは、注意スコアが少数の正のインスタンスにスキューされるため、KID性能が制限される。
本稿では,KIDタスクにおける注意に基づく深層MILモデルの改善手法を提案する。
主なアイデアは、トレーニングされたmilモデルによって生成された袋レベルの予測にどのインスタンスが寄与したかを見つけるためにニューラルネットワークインバージョンを使用することである。
さらに,ニューラルネットワークのインバージョンにはスパース性制約が組み込まれており,近位勾配法によって解かれるスパースネットワークインバージョンが導かれる。
MNISTをベースとした画像MILデータセットと2つの実世界の病理組織学的データセットの数値実験により,本手法の有効性が検証され,バッグレベルの予測性能を維持しつつ,KID性能が著しく向上したことを示す。
関連論文リスト
- Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - Task-oriented Embedding Counts: Heuristic Clustering-driven Feature Fine-tuning for Whole Slide Image Classification [1.292108130501585]
本稿では,クラスタリング駆動型機能微調整法(HC-FT)を提案する。
提案手法はCAMELYON16とBRACSの両方で評価され,それぞれ97.13%,85.85%のAUCが得られた。
論文 参考訳(メタデータ) (2024-06-02T08:53:45Z) - Reproducibility in Multiple Instance Learning: A Case For Algorithmic
Unit Tests [59.623267208433255]
多重インスタンス学習(MIL)は、正と負のラベルと入力の「バグ」を持つ分類問題のサブドメインである。
本研究では,最も顕著な深層MILモデルの5つについて検討し,いずれも標準MILの仮定を尊重していないことを明らかにする。
提案した"アルゴリズムユニットテスト"によってこの問題を特定し,実証する。そこでは,MILを尊重するモデルによって解決可能な,合成データセットを作成する。
論文 参考訳(メタデータ) (2023-10-27T03:05:11Z) - Disambiguated Attention Embedding for Multi-Instance Partial-Label
Learning [68.56193228008466]
多くの実世界のタスクでは、関連するオブジェクトは、候補ラベルセットに関連付けられたマルチインスタンスバッグとして表現することができる。
既存のMIPLアプローチは、各インスタンスに拡張候補ラベルセットを割り当て、インスタンスレベルのラベルからバッグレベルのラベルを集約することで、インスタンス空間のパラダイムに従っている。
本稿では,DEMIPLという直感的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-26T13:25:17Z) - Feature Re-calibration based MIL for Whole Slide Image Classification [7.92885032436243]
全スライド画像(WSI)分類は疾患の診断と治療の基本的な課題である。
本稿では,WSI バッグ (インスタンス) の分布を,最大インスタンス (クリティカル) 特性の統計値を用いて再校正することを提案する。
位置符号化モジュール(PEM)を用いて空間・形態情報をモデル化し,マルチヘッド自己アテンション(PSMA)をトランスフォーマーエンコーダでプーリングする。
論文 参考訳(メタデータ) (2022-06-22T07:00:39Z) - Online progressive instance-balanced sampling for weakly supervised
object detection [0.0]
本稿では、ハードサンプリングとソフトサンプリングに基づくオンラインプログレッシブインスタンスバランスサンプリング(OPIS)アルゴリズムを提案する。
提案手法は,既存の多くの最先端結果に匹敵するベースラインを著しく改善することができる。
論文 参考訳(メタデータ) (2022-06-21T12:48:13Z) - Balancing Bias and Variance for Active Weakly Supervised Learning [9.145168943972067]
現代のマルチインスタンス学習(MIL)モデルは、バッグレベルでの競争性能を達成する。
しかし、多くの重要なアプリケーションに欠かせないインスタンスレベルの予測は不十分である。
本稿では,インスタンスレベルの予測を促進することを目的とした,新しいディープサブセットを提案する。
複数の実世界のデータセット上で実施された実験は、最先端のインスタンスレベルの予測をはっきりと示している。
論文 参考訳(メタデータ) (2022-06-12T07:15:35Z) - Discovery-and-Selection: Towards Optimal Multiple Instance Learning for
Weakly Supervised Object Detection [86.86602297364826]
複数インスタンス学習(DS-MIL)と融合した発見・選択手法を提案する。
我々の提案するDS-MILアプローチは,最先端の性能を報告しながら,ベースラインを一貫して改善することができる。
論文 参考訳(メタデータ) (2021-10-18T07:06:57Z) - Dual-stream Maximum Self-attention Multi-instance Learning [11.685285490589981]
MIL(Multi-Instance Learning)は、インスタンスレベルのラベルが利用できない間に単一のクラスラベルがインスタンスのバッグに割り当てられる弱い教師付き学習の一種である。
ニューラルネットワークによりパラメータ化されたDSMILモデル(Dual-stream maximum self-attention MIL model)を提案する。
提案手法は,最高のMIL手法と比較して優れた性能を示し,ベンチマークMILデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2020-06-09T22:44:58Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z) - Weakly-Supervised Action Localization with Expectation-Maximization
Multi-Instance Learning [82.41415008107502]
弱教師付きアクションローカライゼーションでは、ビデオレベルアクションラベルのみを与えられたビデオ内のアクションセグメントをローカライズするモデルをトレーニングする必要がある。
バッグ(ビデオ)には複数のインスタンス(アクションセグメント)が含まれている。
我々のEM-MILアプローチは、学習目標とMIL仮定の両方をより正確にモデル化することを示します。
論文 参考訳(メタデータ) (2020-03-31T23:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。