論文の概要: ROAM: Random Layer Mixup for Semi-Supervised Learning in Medical Imaging
- arxiv url: http://arxiv.org/abs/2003.09439v4
- Date: Mon, 16 Nov 2020 22:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 22:53:02.576482
- Title: ROAM: Random Layer Mixup for Semi-Supervised Learning in Medical Imaging
- Title(参考訳): ROAM:医療画像における半教師付き学習のためのランダム層混合
- Authors: Tariq Bdair, Benedikt Wiestler, Nassir Navab, and Shadi Albarqouni
- Abstract要約: 医療画像のセグメンテーションは、機械学習の手法が抱える大きな課題の1つだ。
我々はRandOm lAyer MixupのROAMを提案する。
ROAMは、全脳セグメンテーションに対してそれぞれ2.40%と16.50%の相対的な改善を施した、完全に監督された(89.5%)と半監督された(87.0%)設定のSOTA(State-of-the-art)を達成している。
- 参考スコア(独自算出の注目度): 43.26668942258135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation is one of the major challenges addressed by
machine learning methods. Yet, deep learning methods profoundly depend on a
large amount of annotated data, which is time-consuming and costly. Though,
semi-supervised learning methods approach this problem by leveraging an
abundant amount of unlabeled data along with a small amount of labeled data in
the training process. Recently, MixUp regularizer has been successfully
introduced to semi-supervised learning methods showing superior performance.
MixUp augments the model with new data points through linear interpolation of
the data at the input space. We argue that this option is limited. Instead, we
propose ROAM, a RandOm lAyer Mixup, which encourages the network to be less
confident for interpolated data points at randomly selected space. ROAM
generates more data points that have never seen before, and hence it avoids
over-fitting and enhances the generalization ability. We conduct extensive
experiments to validate our method on three publicly available datasets on
whole-brain image segmentation. ROAM achieves state-of-the-art (SOTA) results
in fully supervised (89.5%) and semi-supervised (87.0%) settings with a
relative improvement of up to 2.40% and 16.50%, respectively for the
whole-brain segmentation.
- Abstract(参考訳): 医療画像のセグメンテーションは、機械学習の手法が抱える大きな課題の1つだ。
しかし、ディープラーニングの手法は大量の注釈付きデータに大きく依存しています。
しかし、半教師あり学習法は、トレーニングプロセスで大量のラベルなしデータと少量のラベル付きデータを活用することでこの問題にアプローチしている。
最近,MixUp正則化器が半教師付き学習手法に導入され,性能が向上した。
MixUpは入力空間におけるデータの線形補間を通じて、新しいデータポイントでモデルを拡張します。
この選択肢は限られていると私たちは主張する。
代わりに,ランダムに選択された空間における補間されたデータポイントに対するネットワークの信頼性を低下させるランダム層混合であるroamを提案する。
ROAMはこれまでにないより多くのデータポイントを生成し、過剰な適合を避け、一般化能力を高める。
我々は,全脳画像セグメンテーションの3つの公開データセット上で,提案手法を検証するための広範囲な実験を行った。
roamは最先端のsota(state-of-the-art)結果を達成し、全脳のセグメンテーションでは全監督(89.5%)と半監督(87.0%)をそれぞれ2.40%と16.50%に改善した。
関連論文リスト
- Deep learning-based shot-domain seismic deblending [1.6411821807321063]
我々は,各帆行の最後に獲得した未完成のショットコレクションを利用する。
これらのデータを手動でブレンドすることで、地上の真実をうまく制御したトレーニングデータが得られる。
隣接するブレンドショット集合を含むマルチチャネル入力を用いてディープニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2024-09-13T07:32:31Z) - Inconsistency Masks: Removing the Uncertainty from Input-Pseudo-Label Pairs [0.0]
Inconsistency Masks (IM) は、画像と擬似ラベルのペアの不確実性をフィルタリングし、セグメンテーションの品質を大幅に向上させる新しい手法である。
4つの多様なデータセットに対して10%のラベル付きデータで強力なセグメンテーション結果を得る。
3つのハイブリッドアプローチは、完全にラベル付けされたデータセットでトレーニングされたモデルよりも優れています。
論文 参考訳(メタデータ) (2024-01-25T18:46:35Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Exploring the Boundaries of Semi-Supervised Facial Expression Recognition using In-Distribution, Out-of-Distribution, and Unconstrained Data [23.4909421082857]
表情認識(FER)における最新の半教師あり手法11について検討する。
本研究は,非流通,アウト・オブ・ディストリビューション,制約のない,非常に小さなデータからの半教師付き学習を対象とする。
ラベル付きサンプルの数が等しいため、半教師付き学習は教師付き学習よりも大幅に改善される。
論文 参考訳(メタデータ) (2023-06-02T01:40:08Z) - Improving Few-Shot Generalization by Exploring and Exploiting Auxiliary
Data [100.33096338195723]
補助データを用いたFew-shot Learning(FLAD)に焦点を当てる。
FLADは、一般化を改善するために、数ショットの学習中に補助データへのアクセスを前提としている。
提案するアルゴリズムは EXP3-FLAD と UCB1-FLAD の2つである。
論文 参考訳(メタデータ) (2023-02-01T18:59:36Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - Mask-based Data Augmentation for Semi-supervised Semantic Segmentation [3.946367634483361]
そこで我々は,CutMix と ClassMix の側面を組み込んだデータ拡張手法である ComplexMix を提案する。
提案手法は、意味論的に正しいようにしながら、拡張データの複雑さを制御できる。
実験結果から,セマンティック画像分割のための標準データセットにおける最新手法の改良が得られた。
論文 参考訳(メタデータ) (2021-01-25T15:09:34Z) - XMixup: Efficient Transfer Learning with Auxiliary Samples by
Cross-domain Mixup [60.07531696857743]
クロスドメイン・ミックスアップ(XMixup)は、深層移動学習のためのマルチタスクパラダイムを改善する。
XMixupはソースデータセットから補助サンプルを選択し、単純なミックスアップ戦略を通じてトレーニングサンプルを拡張する。
実験の結果、XMixupは平均で1.9%精度が向上した。
論文 参考訳(メタデータ) (2020-07-20T16:42:29Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。