論文の概要: Self-Validated Learning for Particle Separation: A Correctness-Based Self-Training Framework Without Human Labels
- arxiv url: http://arxiv.org/abs/2508.16224v1
- Date: Fri, 22 Aug 2025 08:54:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.326408
- Title: Self-Validated Learning for Particle Separation: A Correctness-Based Self-Training Framework Without Human Labels
- Title(参考訳): 粒子分離のための自己検証学習:人間ラベルのない正確性に基づく自己学習フレームワーク
- Authors: Philipp D. Lösel, Aleese Barron, Yulai Zhang, Matthias Fabian, Benjamin Young, Nicolas Francois, Andrew M. Kingston,
- Abstract要約: 粒子レベル特性の定量化には, 大規模多粒子試料の非破壊3次元イメージングが不可欠である。
本稿では,粒子インスタンスセグメンテーションのための新しい自己学習フレームワークである自己検証学習を提案する。
提案手法は, 粒子の体積の97%以上を正確に区分し, 石英断片のトモグラフィースキャンで54,000個以上の粒子を同定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-destructive 3D imaging of large multi-particulate samples is essential for quantifying particle-level properties, such as size, shape, and spatial distribution, across applications in mining, materials science, and geology. However, accurate instance segmentation of particles in tomographic data remains challenging due to high morphological variability and frequent particle contact, which limit the effectiveness of classical methods like watershed algorithms. While supervised deep learning approaches offer improved performance, they rely on extensive annotated datasets that are labor-intensive, error-prone, and difficult to scale. In this work, we propose self-validated learning, a novel self-training framework for particle instance segmentation that eliminates the need for manual annotations. Our method leverages implicit boundary detection and iteratively refines the training set by identifying particles that can be consistently matched across reshuffled scans of the same sample. This self-validation mechanism mitigates the impact of noisy pseudo-labels, enabling robust learning from unlabeled data. After just three iterations, our approach accurately segments over 97% of the total particle volume and identifies more than 54,000 individual particles in tomographic scans of quartz fragments. Importantly, the framework also enables fully autonomous model evaluation without the need for ground truth annotations, as confirmed through comparisons with state-of-the-art instance segmentation techniques. The method is integrated into the Biomedisa image analysis platform (https://github.com/biomedisa/biomedisa/).
- Abstract(参考訳): 大規模な多粒子試料の非破壊的な3Dイメージングは、鉱業、材料科学、地質学の分野で、サイズ、形状、空間分布などの粒子レベルの特性の定量化に不可欠である。
しかし、トモグラフィーデータにおける粒子の正確なインスタンスセグメンテーションは、高い形態的変動と頻繁な粒子接触のために依然として困難であり、これは流域アルゴリズムのような古典的な手法の有効性を制限している。
教師付きディープラーニングアプローチはパフォーマンスの向上を提供するが、労働集約的でエラーが発生し、スケールが難しい、広範な注釈付きデータセットに依存している。
そこで本研究では,手作業によるアノテーションの必要性を解消する,粒子インスタンスセグメンテーションのための新たな自己学習フレームワークである,自己検証学習を提案する。
提案手法は暗黙的境界検出を利用して,同一試料のリシャッフルスキャンで一貫した粒子を同定することにより,トレーニングセットを反復的に洗練する。
この自己検証機構は、ノイズの多い擬似ラベルの影響を緩和し、ラベルのないデータから堅牢な学習を可能にする。
わずか3回で全粒子体積の97%以上を正確に分割し, 石英断片のトモグラフィースキャンで54,000個以上の粒子を同定した。
重要なことに、このフレームワークは、最先端のインスタンスセグメンテーション技術との比較を通じて確認されたように、基礎的な真理アノテーションを必要とせずに完全に自律的なモデル評価を可能にする。
この方法はBiomedisaイメージ分析プラットフォーム(https://github.com/biomedisa/biomedisa/)に統合される。
関連論文リスト
- Improved Sub-Visible Particle Classification in Flow Imaging Microscopy via Generative AI-Based Image Synthesis [1.172405562070645]
フローイメージング顕微鏡とディープラーニングを組み合わせたサブ可視粒子分析は,粒子のタイプ同定に有効であることが証明された。
しかし、利用可能なデータの不足とデータセット内の粒子タイプ間の深刻な不均衡は、依然として大きなハードルとなっている。
トレーニングデータセットを拡張可能な高忠実度画像を生成することにより、データの不均衡に対処する最先端拡散モデルを開発する。
論文 参考訳(メタデータ) (2025-08-08T05:15:02Z) - Self-training with dual uncertainty for semi-supervised medical image
segmentation [9.538419502275975]
従来の自己学習手法は、反復学習のための擬似ラベルを生成することによって、ラベル付きデータ不足の問題を部分的に解決することができる。
サンプルレベルと画素レベルの不確実性を加えて,自己学習フレームワークに基づくトレーニングプロセスの安定化を図る。
提案手法は,同じ設定下で両方のデータセットのセグメンテーション性能を向上する。
論文 参考訳(メタデータ) (2023-04-10T07:57:24Z) - Label Cleaning Multiple Instance Learning: Refining Coarse Annotations
on Single Whole-Slide Images [83.7047542725469]
病理検体の全スライディング画像(WSI)における癌領域のアノテーションは、臨床診断、生医学研究、機械学習アルゴリズムの開発において重要な役割を担っている。
本稿では,外部トレーニングデータを必要とせず,単一のWSI上で粗いアノテーションを洗練するためのLC-MIL (Label Cleaning Multiple Instance Learning) を提案する。
乳癌リンパ節転移,肝癌,大腸癌の検体を併用した異種 WSI 実験の結果,LC-MIL は粗いアノテーションを著しく改善し,単一スライドから学習しながらも,最先端の代替品よりも優れていた。
論文 参考訳(メタデータ) (2021-09-22T15:06:06Z) - Learning from Partially Overlapping Labels: Image Segmentation under
Annotation Shift [68.6874404805223]
腹部臓器分節の文脈におけるラベルの重複から学ぶためのいくつかの方法を提案する。
半教師付きアプローチと適応的クロスエントロピー損失を組み合わせることで、不均一な注釈付きデータをうまく活用できることが判明した。
論文 参考訳(メタデータ) (2021-07-13T09:22:24Z) - Synthetic Image Rendering Solves Annotation Problem in Deep Learning
Nanoparticle Segmentation [5.927116192179681]
レンダリングソフトウェアを使用することで、リアルで合成されたトレーニングデータを生成して、最先端の深層ニューラルネットワークをトレーニングできることが示される。
有害な金属酸化物ナノ粒子アンサンブルに対する人為的アノテーションに匹敵するセグメンテーション精度を導出する。
論文 参考訳(メタデータ) (2020-11-20T17:05:36Z) - Semi-Automatic Data Annotation guided by Feature Space Projection [117.9296191012968]
本稿では,適切な特徴空間投影と半教師付きラベル推定に基づく半自動データアノテーション手法を提案する。
MNISTデータセットとヒト腸内寄生虫の胎児不純物の有無による画像を用いて本手法の有効性を検証した。
この結果から,人間と機械の相補的能力を組み合わせた視覚分析ツールの付加価値が,より効果的な機械学習に有効であることが示唆された。
論文 参考訳(メタデータ) (2020-07-27T17:03:50Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Weakly Supervised Deep Nuclei Segmentation Using Partial Points
Annotation in Histopathology Images [51.893494939675314]
本稿では,部分点アノテーションに基づく弱教師付きセグメンテーションフレームワークを提案する。
本手法は, 完全教師付き手法や最先端手法と比較して, 競争性能を向上できることを示す。
論文 参考訳(メタデータ) (2020-07-10T15:41:29Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。