論文の概要: SLAM-AGS: Slide-Label Aware Multi-Task Pretraining Using Adaptive Gradient Surgery in Computational Cytology
- arxiv url: http://arxiv.org/abs/2511.14639v1
- Date: Tue, 18 Nov 2025 16:30:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.212245
- Title: SLAM-AGS: Slide-Label Aware Multi-Task Pretraining Using Adaptive Gradient Surgery in Computational Cytology
- Title(参考訳): SLAM-AGS: コンピュータ細胞診における適応的グラディエント手術を用いたスライドラベル対応マルチタスク事前訓練
- Authors: Marco Acerbis, Swarnadip Chatterjee, Christophe Avenel, Joakim Lindblad,
- Abstract要約: スライドラベル対応マルチタスク事前学習フレームワークSLAM-AGSを提案する。
課題勾配の相反に適応的勾配手術を適用した。
SLAM-AGSは,他の事前学習法に比べて,バッグレベルのF1スコアとTop 400陽性細胞検索を改善した。
- 参考スコア(独自算出の注目度): 1.079960007119637
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Computational cytology faces two major challenges: i) instance-level labels are unreliable and prohibitively costly to obtain, ii) witness rates are extremely low. We propose SLAM-AGS, a Slide-Label-Aware Multitask pretraining framework that jointly optimizes (i) a weakly supervised similarity objective on slide-negative patches and (ii) a self-supervised contrastive objective on slide-positive patches, yielding stronger performance on downstream tasks. To stabilize learning, we apply Adaptive Gradient Surgery to tackle conflicting task gradients and prevent model collapse. We integrate the pretrained encoder into an attention-based Multiple Instance Learning aggregator for bag-level prediction and attention-guided retrieval of the most abnormal instances in a bag. On a publicly available bone-marrow cytology dataset, with simulated witness rates from 10% down to 0.5%, SLAM-AGS improves bag-level F1-Score and Top 400 positive cell retrieval over other pretraining methods, with the largest gains at low witness rates, showing that resolving gradient interference enables stable pretraining and better performance on downstream tasks. To facilitate reproducibility, we share our complete implementation and evaluation framework as open source: https://github.com/Ace95/SLAM-AGS.
- Abstract(参考訳): 計算細胞学は2つの大きな課題に直面している。
一 インスタンスレベルのラベルは、信頼性が低く、かつ、入手に不当にコストがかかるもの
二 証人率が極端に低いこと。
スライドラベル対応マルチタスク事前学習フレームワークSLAM-AGSを提案する。
(i)スライド陰性パッチにおける弱教師付き類似性目標
(II) スライド陽性パッチに対する自己監督的コントラスト的目標であり, 下流タスクにおけるパフォーマンスが向上した。
学習を安定させるために,適応的勾配手術を適用し,相反するタスク勾配に対処し,モデル崩壊を防止する。
我々は,事前学習したエンコーダをアテンションベースのマルチインスタンス学習アグリゲータに統合し,バッグ内の最も異常な事例のバッグレベルの予測とアテンション誘導による検索を行う。
公開可能な骨マロー細胞診データセットでは、シミュレートされた目撃者を10%から0.5%に減らし、SLAM-AGSはバッグレベルのF1スコアとTop 400陽性細胞検索を他の事前訓練方法よりも改善し、低い目撃率で最大のゲインを得た。
再現性を高めるため、我々の完全な実装と評価フレームワークをオープンソースとして公開しています。
関連論文リスト
- WSS-CL: Weight Saliency Soft-Guided Contrastive Learning for Efficient Machine Unlearning Image Classification [0.0]
本稿では,画像分類のための2相効率的な機械学習手法を提案する。
我々の手法は、効率的な機械学習画像分類(WSS-CL)のためのウェイトサリエンシソフトガイド型コントラスト学習と呼ばれる。
提案手法は, 最先端手法と比較して, 性能損失を無視できるほど改善されていない未学習の有効性を示す。
論文 参考訳(メタデータ) (2025-08-06T10:47:36Z) - Self-Supervised YOLO: Leveraging Contrastive Learning for Label-Efficient Object Detection [0.0]
YOLOファミリーのような一段階の物体検出器は、リアルタイム視覚応用において最先端の性能を達成する。
本稿では、この依存を減らす手段として、コントラスト型自己教師学習(SSL)を体系的に研究する。
このアプローチでは、YOLOの畳み込みバックボーンをエンコーダとして適応する、シンプルで効果的なパイプラインを導入しています。
論文 参考訳(メタデータ) (2025-08-04T00:27:12Z) - SeWA: Selective Weight Average via Probabilistic Masking [51.015724517293236]
より良く、より高速な収束を達成するためには、ほんの数ポイントしか必要としないことを示す。
離散選択問題を連続的な部分集合最適化フレームワークに変換する。
両凸画像チェックポイントの値よりもシャープなSeWAの安定性境界を導出する。
論文 参考訳(メタデータ) (2025-02-14T12:35:21Z) - An efficient framework based on large foundation model for cervical cytopathology whole slide image screening [13.744580492120749]
本稿では,教師なし・弱教師付き学習によるWSIレベルラベルのみを用いた頚部細胞病理学WSI分類のための効率的なフレームワークを提案する。
CSDおよびFNAC 2019データセットで実施された実験は、提案手法が様々なMIL手法の性能を高め、最先端(SOTA)性能を達成することを示した。
論文 参考訳(メタデータ) (2024-07-16T08:21:54Z) - Adaptive Retention & Correction: Test-Time Training for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - NearbyPatchCL: Leveraging Nearby Patches for Self-Supervised Patch-Level
Multi-Class Classification in Whole-Slide Images [10.8479107614771]
全スライディング画像(WSI)解析は、がんの診断と治療において重要な役割を担っている。
本稿では,新しい自己教師型学習手法であるNearby Patch Contrastive Learning(NearbyPatchCL)を紹介する。
本手法は,トップ1分類精度87.56%で,教師付きベースラインと最先端SSL法を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-12T18:24:44Z) - Task-Adaptive Saliency Guidance for Exemplar-free Class Incremental Learning [60.501201259732625]
EFCILにタスク適応型サリエンシを導入し、タスク適応型サリエンシ・スーパービジョン(TASS)と呼ばれる新しいフレームワークを提案する。
提案手法は,CIFAR-100, Tiny-ImageNet, ImageNet-Subset EFCILベンチマークを用いて,タスク間のサリエンシマップの保存や,最先端の成果の達成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-16T02:43:52Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - A Framework using Contrastive Learning for Classification with Noisy
Labels [1.2891210250935146]
雑音ラベルの存在下で画像分類を行うために,コントラスト学習を事前学習タスクとして利用するフレームワークを提案する。
擬似ラベル, ガウス混合モデルを用いたサンプル選択, 重み付き教師付きコントラスト学習などの近年の戦略は, 事前学習後の微調整相に組み合わされている。
論文 参考訳(メタデータ) (2021-04-19T18:51:22Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。