論文の概要: PDL: Regularizing Multiple Instance Learning with Progressive Dropout
Layers
- arxiv url: http://arxiv.org/abs/2308.10112v1
- Date: Sat, 19 Aug 2023 21:20:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 17:49:56.362983
- Title: PDL: Regularizing Multiple Instance Learning with Progressive Dropout
Layers
- Title(参考訳): PDL: プログレッシブ・ドロップアウト・レイヤによる複数インスタンス学習の正規化
- Authors: Wenhui Zhu, Peijie Qiu, Oana M. Dumitrascu and Yalin Wang
- Abstract要約: 多重インスタンス学習(MIL)は、バッグとして知られるインスタンスのコレクションにバイナリクラスラベルを割り当てようとする、弱い教師付き学習アプローチである。
本稿では,複雑な特徴表現の発見において,MILモデルの過度な適合と強化を図るために,プログレッシブ・ドロップアウト・レイヤ(PDL)という手法を提案する。
- 参考スコア(独自算出の注目度): 2.2774820679812695
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multiple instance learning (MIL) was a weakly supervised learning approach
that sought to assign binary class labels to collections of instances known as
bags. However, due to their weak supervision nature, the MIL methods were
susceptible to overfitting and required assistance in developing comprehensive
representations of target instances. While regularization typically effectively
combated overfitting, its integration with the MIL model has been frequently
overlooked in prior studies. Meanwhile, current regularization methods for MIL
have shown limitations in their capacity to uncover a diverse array of
representations. In this study, we delve into the realm of regularization
within the MIL model, presenting a novel approach in the form of a Progressive
Dropout Layer (PDL). We aim to not only address overfitting but also empower
the MIL model in uncovering intricate and impactful feature representations.
The proposed method was orthogonal to existing MIL methods and could be easily
integrated into them to boost performance. Our extensive evaluation across a
range of MIL benchmark datasets demonstrated that the incorporation of the PDL
into multiple MIL methods not only elevated their classification performance
but also augmented their potential for weakly-supervised feature localizations.
- Abstract(参考訳): 多重インスタンス学習(MIL)は、バッグとして知られるインスタンスのコレクションにバイナリクラスラベルを割り当てようとする、弱い教師付き学習アプローチである。
しかし、その監督能力の弱いため、MIL法は過度に適合し、ターゲットインスタンスの包括的な表現を開発する上で必要な支援を受けていた。
通常、正規化はオーバーフィッティングと効果的に戦うが、MILモデルとの統合は以前の研究でしばしば見過ごされてきた。
一方、現在のMILの正規化手法では、様々な表現の配列を明らかにする能力に限界が示されている。
本研究では,MILモデルにおける正規化の領域を探索し,プログレッシブ・ドロップアウト・レイヤ(PDL)という新たなアプローチを提案する。
我々は、過度に適合するだけでなく、複雑で影響のある特徴表現を明らかにする上で、MILモデルを強化することを目指している。
提案手法は既存のMIL法と直交し, 性能向上に容易に組み込むことができた。
milベンチマークデータセットの広範囲にわたる評価の結果,複数のmil法にpdlを組み込むことによって,分類性能が向上するだけでなく,弱い教師付き特徴の局在化の可能性も高まった。
関連論文リスト
- Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - Hyperbolic Secant representation of the logistic function: Application to probabilistic Multiple Instance Learning for CT intracranial hemorrhage detection [0.0]
マルチ・インスタンス・ラーニング (MIL) は、様々な科学分野にうまく適用された弱い教師付きパラダイムである。
本稿では,Hyperbolic Secant以外の分布を単純に活用することで,異なる形状のGPベースのMIL法を提案する。
これは、合成MILデータセット1つ、よく知られたMILベンチマーク2つ、現実世界の医療問題を含む総合的な実験で検証されている。
論文 参考訳(メタデータ) (2024-03-21T20:43:34Z) - MambaMIL: Enhancing Long Sequence Modeling with Sequence Reordering in
Computational Pathology [10.933433327636918]
MIL(Multiple Instance Learning)は、WSI(Whole Slide Images)内の識別的特徴表現を計算病理学で抽出する主要なパラダイムとして登場した。
本稿では,線形複雑度を持つ長周期モデリングのために,Selective Scan Space State Sequential Model(Mamba)をMIL(Multiple Instance Learning)に組み込む。
提案するフレームワークは,最先端のMIL手法に対して良好に機能する。
論文 参考訳(メタデータ) (2024-03-11T15:17:25Z) - Reproducibility in Multiple Instance Learning: A Case For Algorithmic
Unit Tests [59.623267208433255]
多重インスタンス学習(MIL)は、正と負のラベルと入力の「バグ」を持つ分類問題のサブドメインである。
本研究では,最も顕著な深層MILモデルの5つについて検討し,いずれも標準MILの仮定を尊重していないことを明らかにする。
提案した"アルゴリズムユニットテスト"によってこの問題を特定し,実証する。そこでは,MILを尊重するモデルによって解決可能な,合成データセットを作成する。
論文 参考訳(メタデータ) (2023-10-27T03:05:11Z) - Combating Representation Learning Disparity with Geometric Harmonization [50.29859682439571]
本稿では,表現学習におけるカテゴリレベルの均一性を促進するために,新しい幾何調和法を提案する。
我々の提案はSSLの設定を変更せず、低コストで既存のメソッドに容易に統合できる。
論文 参考訳(メタデータ) (2023-10-26T17:41:11Z) - Multiple Instance Learning Framework with Masked Hard Instance Mining
for Whole Slide Image Classification [11.996318969699296]
マスケードハードインスタンスマイニング(MHIM-MIL)について紹介する。
MHIM-MILは、潜在的なハードインスタンスを探索するために一貫性のある制約を持つシームズ構造(Teacher-Student)を使用する。
CAMELYON-16およびTCGA肺がんデータセットの実験結果は、MHIM-MILがパフォーマンスとトレーニングコストの点で他の最新の方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-07-28T01:40:04Z) - Feature Re-calibration based MIL for Whole Slide Image Classification [7.92885032436243]
全スライド画像(WSI)分類は疾患の診断と治療の基本的な課題である。
本稿では,WSI バッグ (インスタンス) の分布を,最大インスタンス (クリティカル) 特性の統計値を用いて再校正することを提案する。
位置符号化モジュール(PEM)を用いて空間・形態情報をモデル化し,マルチヘッド自己アテンション(PSMA)をトランスフォーマーエンコーダでプーリングする。
論文 参考訳(メタデータ) (2022-06-22T07:00:39Z) - ProtoMIL: Multiple Instance Learning with Prototypical Parts for
Fine-Grained Interpretability [2.094672430475796]
マルチインスタンス学習(MIL)は、教師付きの弱い性質のため、多くの実生活の機械学習アプリケーションで人気を博している。
本稿では,視覚プロトタイプで動作するケースベース推論プロセスにインスパイアされた,自己説明可能な新しいMIL手法であるProtoMILを紹介する。
ProtoMILは、オブジェクト記述にプロトタイプ機能を組み込むことで、モデル精度と微妙な解釈可能性に前例のない結合を実現している。
論文 参考訳(メタデータ) (2021-08-24T10:02:31Z) - CIL: Contrastive Instance Learning Framework for Distantly Supervised
Relation Extraction [52.94486705393062]
我々は、典型的なマルチインスタンス学習(MIL)フレームワークを超えて、新しいコントラッシブ・インスタンス学習(CIL)フレームワークを提案する。
具体的には、初期MILをリレーショナルトリプルエンコーダと各インスタンスに対する負のペアに対する制約正のペアとみなす。
提案手法の有効性を実験的に検証し, 提案手法をNYT10, GDS, KBPで比較検討した。
論文 参考訳(メタデータ) (2021-06-21T04:51:59Z) - Empower Distantly Supervised Relation Extraction with Collaborative
Adversarial Training [53.347081723070666]
我々は,MIL(Multi-instance Learning)のデータ活用を改善するために,協調的対人訓練を提案する。
VATはラベルなしなので、MILによって放棄されたインスタンスをリサイクルするためにインスタンスレベルのVATを使用します。
提案手法は,先行技術に一貫した改善(5つの絶対AUCスコア)をもたらす。
論文 参考訳(メタデータ) (2021-06-21T03:54:02Z) - Theoretical Convergence of Multi-Step Model-Agnostic Meta-Learning [63.64636047748605]
一般的なマルチステップMAMLアルゴリズムに対して収束保証を提供するための新しい理論フレームワークを開発する。
特に,本研究の結果は,収束を保証するためには,内部段階のステップを逆比例して$N$の内段ステップを選択する必要があることを示唆している。
論文 参考訳(メタデータ) (2020-02-18T19:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。