論文の概要: AugDiff: Diffusion based Feature Augmentation for Multiple Instance
Learning in Whole Slide Image
- arxiv url: http://arxiv.org/abs/2303.06371v1
- Date: Sat, 11 Mar 2023 10:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 19:17:47.369691
- Title: AugDiff: Diffusion based Feature Augmentation for Multiple Instance
Learning in Whole Slide Image
- Title(参考訳): AugDiff:全スライド画像における複数インスタンス学習のための拡散に基づく機能拡張
- Authors: Zhuchen Shao, Liuxi Dai, Yifeng Wang, Haoqian Wang, Yongbing Zhang
- Abstract要約: 弱教師付き学習のための強力な戦略であるマルチインスタンス学習(MIL)は、ギガピクセル全スライド画像(WSI)上で様々な予測タスクを実行することができる。
拡散モデル(DM)を初めてMILに導入し,AugDiffと呼ばれる機能拡張フレームワークを提案する。
我々は,AugDiffの性能を評価するために,3つの異なる癌データセット,2つの異なる特徴抽出器,および3つのMILアルゴリズムについて広範な実験を行った。
- 参考スコア(独自算出の注目度): 15.180437840817788
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multiple Instance Learning (MIL), a powerful strategy for weakly supervised
learning, is able to perform various prediction tasks on gigapixel Whole Slide
Images (WSIs). However, the tens of thousands of patches in WSIs usually incur
a vast computational burden for image augmentation, limiting the MIL model's
improvement in performance. Currently, the feature augmentation-based MIL
framework is a promising solution, while existing methods such as Mixup often
produce unrealistic features. To explore a more efficient and practical
augmentation method, we introduce the Diffusion Model (DM) into MIL for the
first time and propose a feature augmentation framework called AugDiff.
Specifically, we employ the generation diversity of DM to improve the quality
of feature augmentation and the step-by-step generation property to control the
retention of semantic information. We conduct extensive experiments over three
distinct cancer datasets, two different feature extractors, and three prevalent
MIL algorithms to evaluate the performance of AugDiff. Ablation study and
visualization further verify the effectiveness. Moreover, we highlight
AugDiff's higher-quality augmented feature over image augmentation and its
superiority over self-supervised learning. The generalization over external
datasets indicates its broader applications.
- Abstract(参考訳): 弱教師付き学習のための強力な戦略であるマルチインスタンス学習(MIL)は、ギガピクセル全スライド画像(WSI)上で様々な予測タスクを実行することができる。
しかし、WSIの何万ものパッチは、通常、画像拡張の膨大な計算負担を発生させ、MILモデルの性能改善を制限する。
現在、機能拡張ベースのMILフレームワークは有望なソリューションであり、Mixupのような既存のメソッドは非現実的な機能を生成することが多い。
より効率的で実用的な拡張手法を探るため,Diffusion Model (DM) を初めて MIL に導入し,AugDiff という機能拡張フレームワークを提案する。
具体的には,DM生成の多様性を利用して特徴増強の質を向上し,ステップバイステップ生成特性を用いて意味情報の保持を制御する。
我々は,AugDiffの性能を評価するために,3つの異なる癌データセット,2つの異なる特徴抽出器,および3つのMILアルゴリズムについて広範な実験を行った。
アブレーション研究と可視化は、その効果をさらに検証する。
さらに、AugDiffの画質向上機能と、自己教師型学習よりも優れている点を強調した。
外部データセットの一般化は、その広範な応用を示している。
関連論文リスト
- MAT: Multi-Range Attention Transformer for Efficient Image Super-Resolution [14.265237560766268]
多様な空間範囲にわたる注意の柔軟な統合は、大幅なパフォーマンス向上をもたらす可能性がある。
スーパーレゾリューション(SR)タスクに適したマルチランジアテンショントランス(MAT)を提案する。
MATは、様々な空間範囲にまたがる依存関係を包含し、その特徴表現の多様性と有効性を向上させる。
論文 参考訳(メタデータ) (2024-11-26T08:30:31Z) - ADEM-VL: Adaptive and Embedded Fusion for Efficient Vision-Language Tuning [38.26304604660713]
ADEM-VLは、事前訓練された大規模言語モデルに基づいてモデルをチューニングする効率的な視覚言語手法である。
我々のフレームワークはScienceQAデータセットの平均精度を0.77%上回る。
論文 参考訳(メタデータ) (2024-10-23T11:31:06Z) - Feature Augmentation for Self-supervised Contrastive Learning: A Closer Look [28.350278251132078]
本稿では,機能拡張(Feature Augmentation)として知られる機能空間でデータ拡張を行う統一フレームワークを提案する。
この戦略はドメインに依存しないため、元のものと同様の機能が追加され、データの多様性が向上する。
論文 参考訳(メタデータ) (2024-10-16T09:25:11Z) - MMEvol: Empowering Multimodal Large Language Models with Evol-Instruct [148.39859547619156]
我々は,新しいマルチモーダル命令データ進化フレームワークであるMMEvolを提案する。
MMEvolは、きめ細かい知覚、認知的推論、相互作用の進化の洗練された組み合わせによって、データ品質を反復的に改善する。
提案手法は,9つのタスクにおいて,最先端モデルに比べて有意に少ない精度でSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-09-09T17:44:00Z) - A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - RangeAugment: Efficient Online Augmentation with Range Learning [54.61514286212455]
RangeAugmentは、個々の大きさと複合オーグメンテーション操作を効率よく学習する。
本研究では,RangeAugmentの4~5倍の精度で,最先端自動拡張手法の競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-12-20T18:55:54Z) - Local Magnification for Data and Feature Augmentation [53.04028225837681]
LOMA(Local Magnification)と呼ばれる,実装が容易かつモデルフリーなデータ拡張手法を提案する。
LOMAは、画像の局所領域をランダムに拡大することにより、追加のトレーニングデータを生成する。
実験の結果,提案するLOMAと標準データ拡張を組み合わせることで,画像分類や物体検出の性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-11-15T02:51:59Z) - Learning Representational Invariances for Data-Efficient Action
Recognition [52.23716087656834]
我々は,データ拡張戦略により,Kinetics-100,UCF-101,HMDB-51データセットのパフォーマンスが期待できることを示す。
また,完全な教師付き設定でデータ拡張戦略を検証し,性能向上を実証した。
論文 参考訳(メタデータ) (2021-03-30T17:59:49Z) - MA 3 : Model Agnostic Adversarial Augmentation for Few Shot learning [5.854757988966379]
本稿では,新しい拡張手法を用いて,数ショット学習の領域を探索する。
本手法は,多目的なデータセットやベースモデルへの拡張を可能にするため,完全に微分可能である。
ネットワークアーキテクチャを変更することなく拡張モジュールを追加することで、約4%の改善を実現しています。
論文 参考訳(メタデータ) (2020-04-10T16:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。