論文の概要: Multiple Instance Learning with random sampling for Whole Slide Image
Classification
- arxiv url: http://arxiv.org/abs/2403.05351v1
- Date: Fri, 8 Mar 2024 14:31:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 13:26:33.005097
- Title: Multiple Instance Learning with random sampling for Whole Slide Image
Classification
- Title(参考訳): 全スライド画像分類のためのランダムサンプリングによる複数インスタンス学習
- Authors: H. Keshvarikhojasteh, J.P.W. Pluim, M. Veta
- Abstract要約: トレーニング中のパッチのランダムサンプリングは計算的に効率的であり、正規化戦略として機能する。
我々は、CAMELYON16データセットのパッチの30%を使用して、1.7%の最適なパフォーマンス向上と、TUPAC16データセットのたった8つのサンプルで3.7%を見出した。
また,解釈可能性効果はデータセットに依存し,解釈性はCAMELYON16に影響を及ぼすが,TUPAC16には影響しない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In computational pathology, random sampling of patches during training of
Multiple Instance Learning (MIL) methods is computationally efficient and
serves as a regularization strategy. Despite its promising benefits, questions
concerning performance trends for varying sample sizes and its influence on
model interpretability remain. Addressing these, we reach an optimal
performance enhancement of 1.7% using thirty percent of patches on the
CAMELYON16 dataset, and 3.7% with only eight samples on the TUPAC16 dataset. We
also find interpretability effects are strongly dataset-dependent, with
interpretability impacted on CAMELYON16, while remaining unaffected on TUPAC16.
This reinforces that both the performance and interpretability relationships
with sampling are closely task-specific. End-to-end training with 1024 samples
reveals improvements across both datasets compared to pre-extracted features,
further highlighting the potential of this efficient approach.
- Abstract(参考訳): 計算病理学では、MIL(Multiple Instance Learning)法の訓練中のパッチのランダムサンプリングは、計算効率が高く、正規化戦略として機能する。
その有望な利点にもかかわらず、様々なサンプルサイズのパフォーマンストレンドとそのモデル解釈可能性への影響に関する疑問が残る。
これらの問題に対処するため、CAMELYON16データセットの30%のパッチを使用して1.7%、TUPAC16データセットの8サンプルだけで3.7%の最適なパフォーマンス向上を実現しました。
また,解釈可能性効果はデータセットに依存し,解釈性はCAMELYON16に影響を及ぼすが,TUPAC16には影響しない。
これは、サンプリングとパフォーマンスと解釈可能性の関係が密接にタスク固有であることを裏付ける。
1024のサンプルによるエンドツーエンドのトレーニングでは、既存の機能と比較して、両方のデータセットにまたがる改善が示されている。
関連論文リスト
- SLYKLatent, a Learning Framework for Facial Features Estimation [0.0]
SLYKLatentは、データセットの外観不安定性問題に対処することで、視線推定を向上するための新しいアプローチである。
ベンチマークデータセットの評価では,上位MPIIFaceGazeと競合するGaze360が8.7%向上し,ETH-XGazeのサブセットが13%向上した。
論文 参考訳(メタデータ) (2024-02-02T16:47:18Z) - BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Spanning Training Progress: Temporal Dual-Depth Scoring (TDDS) for
Enhanced Dataset Pruning [54.511055635704764]
我々は、時間的デュアルディープス・スコーリング(TDDS)と呼ばれる新しいデータセット・プルーニング手法を提案する。
本手法は,10%のトレーニングデータで54.51%の精度を達成し,ランダム選択を7.83%以上,他の比較手法を12.69%以上上回る結果を得た。
論文 参考訳(メタデータ) (2023-11-22T03:45:30Z) - When hard negative sampling meets supervised contrastive learning [17.173114048398947]
我々は、微調整フェーズ中にハードネガティブサンプリングを組み込んだ新しい教師付きコントラスト学習目標であるSCHaNeを導入する。
SchaNeは、様々なベンチマークで、トップ1の精度で強いベースラインBEiT-3を上回っている。
提案手法は,ImageNet-1kのベースモデルに対して,86.14%の精度で新たな最先端技術を実現する。
論文 参考訳(メタデータ) (2023-08-28T20:30:10Z) - Multi-Task Self-Supervised Time-Series Representation Learning [3.31490164885582]
時系列表現学習は、時間的ダイナミクスとスパースラベルを持つデータから表現を抽出することができる。
自己教師型タスクの利点を組み合わせた時系列表現学習手法を提案する。
本稿では,時系列分類,予測,異常検出という3つのダウンストリームタスクの枠組みについて検討する。
論文 参考訳(メタデータ) (2023-03-02T07:44:06Z) - Towards Inference Efficient Deep Ensemble Learning [35.1550905788943]
アンサンブル法は驚くべき性能向上をもたらすが、計算コストも大幅に高くなる。
本研究では,アンサンブル学習における効率と効率を同時に最適化する,推論効率のよいアンサンブル学習手法を提案する。
実世界のデータセットで異なるバックボーンを用いた実験は、我々の手法が推論コストを最大56%削減できることを示している。
論文 参考訳(メタデータ) (2023-01-29T06:48:53Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Improving Robustness and Efficiency in Active Learning with Contrastive
Loss [13.994967246046008]
本稿では,教師付き環境下での能動学習に比較学習の損失を生かして,教師付きコントラッシブ・アクティブ・ラーニング(SCAL)を提案する。
多様な特徴表現の偏りのない情報的データサンプルを選択するために,能動的学習における効率的なクエリ戦略を提案する。
論文 参考訳(メタデータ) (2021-09-13T21:09:21Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Federated Learning under Importance Sampling [49.17137296715029]
本研究は, サンプリングエージェントと非均一に誘導されるデータに対する重要サンプリングと工夫の効果について検討する。
代替のないサンプリングを含むスキームでは,結果のアーキテクチャの性能は,各エージェントのデータ変動性に関連する2つの要因によって制御される。
論文 参考訳(メタデータ) (2020-12-14T10:08:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。