論文の概要: Classifying Mitotic Figures in the MIDOG25 Challenge with Deep Ensemble Learning and Rule Based Refinement
- arxiv url: http://arxiv.org/abs/2508.20919v1
- Date: Thu, 28 Aug 2025 15:50:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.492433
- Title: Classifying Mitotic Figures in the MIDOG25 Challenge with Deep Ensemble Learning and Rule Based Refinement
- Title(参考訳): MIDOG25チャレンジにおける深層集合学習とルールベースリファインメントを用いたミオティックフィギュアの分類
- Authors: Sara Krauss, Ellena Spieß, Daniel Hieber, Frank Kramer, Johannes Schobel, Dominik Müller,
- Abstract要約: MFs(Mitotic figure)は、腫瘍のグレーティングに関係のあるバイオマーカーである。
非定型的MF(AMF)と通常のMF(NMF)との鑑別は依然として困難である。
この作業では、ConvNeXtBaseモデルのアンサンブルがAUCMEDIでトレーニングされ、ルールベースの改良(RBR)モジュールで拡張された。
- 参考スコア(独自算出の注目度): 0.09845863350714905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mitotic figures (MFs) are relevant biomarkers in tumor grading. Differentiating atypical MFs (AMFs) from normal MFs (NMFs) remains difficult, as manual annotation is time-consuming and subjective. In this work an ensemble of ConvNeXtBase models was trained with AUCMEDI and extend with a rule-based refinement (RBR) module. On the MIDOG25 preliminary test set, the ensemble achieved a balanced accuracy of 84.02%. While the RBR increased specificity, it reduced sensitivity and overall performance. The results show that deep ensembles perform well for AMF classification. RBR can increase specific metrics but requires further research.
- Abstract(参考訳): MFs(Mitotic figure)は、腫瘍のグレーティングに関係のあるバイオマーカーである。
非定型的MF(AMFs)と通常のMF(NMFs)を区別することは、手動のアノテーションが時間がかかり主観的であるため、依然として困難である。
この作業では、ConvNeXtBaseモデルのアンサンブルがAUCMEDIでトレーニングされ、ルールベースの改良(RBR)モジュールで拡張された。
MIDOG25の予備試験セットでは、アンサンブルの精度は84.02%に達した。
RBRは特異性を高めたが、感度と全体的な性能は低下した。
その結果,深層アンサンブルはAMF分類に有効であることが示唆された。
RBRは特定のメトリクスを増やすことができるが、さらなる研究が必要である。
関連論文リスト
- EB-gMCR: Energy-Based Generative Modeling for Signal Unmixing and Multivariate Curve Resolution [0.0]
EB-gMCRは、データを忠実に再構築できる最小のコンポーネントを自動的に発見するエネルギーベースのディープラーニングソルバである。
最大256個の潜水源を含むノイズの多いデータセットでは、EB-gMCRはR2 >= 0.98 を維持し、地上の真理の5%以内に成分数を回収した。
EB-gMCRは、化学ライブラリ駆動シナリオを含む大規模信号アンミックス解析への実践的な経路を提供する。
論文 参考訳(メタデータ) (2025-07-31T14:40:33Z) - Adaptive Gate-Aware Mamba Networks for Magnetic Resonance Fingerprinting [8.673589204148115]
MRF(MR Resonance Fingerprinting)は、信号の進化を予め定義された辞書に合わせることで高速な定量的イメージングを可能にする。
最近の研究は、DMに代わるディープラーニングベースのアプローチを探求している。
両MambaベースのエンコーダとGAST(Gate-Aware Spatial-Temporal)プロセッサを組み合わせたエンドツーエンドフレームワークであるGAST-Mambaを提案する。
論文 参考訳(メタデータ) (2025-07-04T08:04:01Z) - MoA: Heterogeneous Mixture of Adapters for Parameter-Efficient Fine-Tuning of Large Language Models [61.89384981175277]
ローランド適応 (LoRA) とミックスオブエキスパート (MoE) を統合するための固有テキストbfMixture-of-Adapters (MoA) アプローチを提案する。
実験結果から, 不均一なMoAは均一なMoE-LoRA法よりも性能およびパラメータ効率が優れていることがわかった。
論文 参考訳(メタデータ) (2025-06-06T09:54:19Z) - Enhancing Global Sensitivity and Uncertainty Quantification in Medical Image Reconstruction with Monte Carlo Arbitrary-Masked Mamba [22.852768590511058]
本稿では,共同医用画像再構成と不確実性推定のためのウェーブレット分解を用いたArbitrary-Masked MambaベースのモデルであるMambaMIRを紹介する。
新しいArbitrary Scan Masking (ASM) 機構は冗長な情報を「マスクアウト」し、さらなる不確実性推定のためにランダム性を導入する。
テクスチャのさらなる保存と知覚品質の向上のために,我々はMambaMIRへのウェーブレット変換を採用し,その変形を生成的逆数ネットワーク(MambaMIR-GAN)に基づいて探索する。
論文 参考訳(メタデータ) (2024-05-27T21:04:43Z) - Unchosen Experts Can Contribute Too: Unleashing MoE Models' Power by Self-Contrast [58.98411447739218]
Mixture-of-Experts (MoE) は、計算効率を保ちながら、モデルサイズをスケールするための顕著なアーキテクチャとして登場した。
本研究では,無声専門家を推論中に自己コントラスト的に活用する学習自由戦略である自己コントラスト混合(SCMoE)を提案する。
我々の手法は概念的には単純で計算量も軽量であり、グリージー復号法に比べて最小限の遅延を発生させる。
論文 参考訳(メタデータ) (2024-05-23T12:45:29Z) - SMRD: SURE-based Robust MRI Reconstruction with Diffusion Models [76.43625653814911]
拡散モデルは、高い試料品質のため、MRIの再生を加速するために人気を博している。
推論時に柔軟にフォワードモデルを組み込んだまま、効果的にリッチなデータプリエントとして機能することができる。
拡散モデル(SMRD)を用いたSUREに基づくMRI再構成を導入し,テスト時の堅牢性を向上する。
論文 参考訳(メタデータ) (2023-10-03T05:05:35Z) - Integrating Random Forests and Generalized Linear Models for Improved Accuracy and Interpretability [9.128252505139471]
我々はRF+と呼ばれるフレームワークを用いて、RFの強みと一般化線形モデルの強さを組み合わせる。
RF+はRFよりも予測精度を向上し、MDI+は信号の特徴を特定する上での一般的な特徴重要度よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-04T21:36:46Z) - From Cloze to Comprehension: Retrofitting Pre-trained Masked Language
Model to Pre-trained Machine Reader [130.45769668885487]
Pre-trained Machine Reader (PMR) は、ラベル付きデータを取得することなく、MLMを事前学習機械読解(MRC)モデルに適合させる新しい手法である。
提案したPMRを構築するために,多量の汎用および高品質なMRCスタイルのトレーニングデータを構築した。
PMRは、MRCの定式化における様々な抽出および分類タスクに対処するための統一モデルとして機能する可能性がある。
論文 参考訳(メタデータ) (2022-12-09T10:21:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。