論文の概要: MoMBS: Mixed-order minibatch sampling enhances model training from diverse-quality images
- arxiv url: http://arxiv.org/abs/2505.18741v1
- Date: Sat, 24 May 2025 15:20:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.629822
- Title: MoMBS: Mixed-order minibatch sampling enhances model training from diverse-quality images
- Title(参考訳): MoMBS:Mixed-order Minibatch sampleは様々な画質の画像からモデルトレーニングを促進する
- Authors: Han Li, Hu Han, S. Kevin Zhou,
- Abstract要約: 深層モデルの学習において、さまざまな品質のトレーニングイメージをどのように活用するかが問題となる。
各種品質のトレーニングサンプルを最適化するために,Mixed-order Minibatch Smpling (MoMBS)法を提案する。
- 参考スコア(独自算出の注目度): 38.1134869118573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural images exhibit label diversity (clean vs. noisy) in noisy-labeled image classification and prevalence diversity (abundant vs. sparse) in long-tailed image classification. Similarly, medical images in universal lesion detection (ULD) exhibit substantial variations in image quality, encompassing attributes such as clarity and label correctness. How to effectively leverage training images with diverse qualities becomes a problem in learning deep models. Conventional training mechanisms, such as self-paced curriculum learning (SCL) and online hard example mining (OHEM), relieve this problem by reweighting images with high loss values. Despite their success, these methods still confront two challenges: (i) the loss-based measure of sample hardness is imprecise, preventing optimum handling of different cases, and (ii) there exists under-utilization in SCL or over-utilization OHEM with the identified hard samples. To address these issues, this paper revisits the minibatch sampling (MBS), a technique widely used in deep network training but largely unexplored concerning the handling of diverse-quality training samples. We discover that the samples within a minibatch influence each other during training; thus, we propose a novel Mixed-order Minibatch Sampling (MoMBS) method to optimize the use of training samples with diverse qualities. MoMBS introduces a measure that takes both loss and uncertainty into account to surpass a sole reliance on loss and allows for a more refined categorization of high-loss samples by distinguishing them as either poorly labeled and under represented or well represented and overfitted. We prioritize under represented samples as the main gradient contributors in a minibatch and keep them from the negative influences of poorly labeled or overfitted samples with a mixed-order minibatch sampling design.
- Abstract(参考訳): 自然画像は、ノイズラベル付き画像分類におけるラベルの多様性(クリーン vs. ノイズ)と、ロングテール画像分類における有病率の多様性(アウンダント vs. スパース)を示す。
同様に、普遍的病変検出(ULD)における医療画像は、明快さやラベルの正しさなどの属性を含む、画像品質のかなりのバリエーションを示す。
様々な品質の訓練画像を効果的に活用する方法は、深層モデルの学習において問題となる。
自己ペース型カリキュラム学習(SCL)やオンラインハードサンプルマイニング(OHEM)といった従来のトレーニングメカニズムは、損失値の高い画像を再重み付けすることで、この問題を緩和する。
彼らの成功にもかかわらず、これらの方法はまだ2つの課題に直面している。
一 サンプル硬度の損失に基づく測定は不正確で、異なる事例の最適処理を防ぎ、
(II) SCL や過剰利用 OHEM には, 同定された硬質試料が混在している。
これらの課題に対処するため,本論文では,ネットワーク深層学習において広く用いられている手法であるミニバッチサンプリング(MBS)を再検討する。
ミニバッチ内のサンプルがトレーニング中に相互に影響していることが判明し,様々な品質のトレーニングサンプルの使用を最適化するために,Mixed-order Minibatch Smpling (MoMBS)法を提案する。
MoMBSは損失と不確実性の両方を考慮に入れ、損失への唯一の依存を克服し、粗悪なラベル付けと下記の表示と過度な表示のどちらかを区別することで、高損失サンプルのより洗練された分類を可能にしている。
我々は,ミニバッチにおける主勾配コントリビュータとして表現されたサンプルを優先し,混合順序のミニバッチサンプリング設計によるラベル付けやオーバーフィットの悪いサンプルの負の影響を抑える。
関連論文リスト
- Detection of Under-represented Samples Using Dynamic Batch Training for Brain Tumor Segmentation from MR Images [0.8437187555622164]
磁気共鳴イメージング(MR)における脳腫瘍は困難であり、時間を要する。
これらの課題は、MR画像から自動脳腫瘍分割法を開発することで解決できる。
U-Netに基づく様々なディープラーニングモデルが提案されている。
これらのディープラーニングモデルは、腫瘍画像のデータセットに基づいてトレーニングされ、マスクのセグメント化に使用される。
論文 参考訳(メタデータ) (2024-08-21T21:51:47Z) - Deep Boosting Multi-Modal Ensemble Face Recognition with Sample-Level
Weighting [11.39204323420108]
深層畳み込みニューラルネットワークは顔認識において顕著な成功を収めた。
現在のトレーニングベンチマークは、不均衡な品質分布を示している。
これは、訓練中に不足しているため、ハードサンプルの一般化に問題を引き起こす。
有名なAdaBoostにインスパイアされた本研究では、FR損失に異なるサンプルの重要性を組み込むためのサンプルレベルの重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T01:44:54Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Alleviating Noisy-label Effects in Image Classification via Probability
Transition Matrix [30.532481130511137]
ディープラーニングに基づく画像分類フレームワークは、しばしば、サーバ間変動に起因するノイズの多いラベル問題に悩まされる。
本稿では,ノイズ無視ブロック (NIB) と呼ばれるプラグインモジュールを提案する。
我々のNIBモジュールは、最先端の堅牢なトレーニング手法の性能を一貫して改善します。
論文 参考訳(メタデータ) (2021-10-17T17:01:57Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - ReMix: Towards Image-to-Image Translation with Limited Data [154.71724970593036]
本稿では,この問題に対処するためのデータ拡張手法(ReMix)を提案する。
特徴レベルでのトレーニングサンプルを補間し、サンプル間の知覚的関係に基づく新しいコンテンツ損失を提案します。
提案手法は, 生成のあいまいさを効果的に低減し, コンテンツ保存結果を生成する。
論文 参考訳(メタデータ) (2021-03-31T06:24:10Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z) - Melanoma Detection using Adversarial Training and Deep Transfer Learning [6.22964000148682]
皮膚病変画像の自動分類のための2段階の枠組みを提案する。
第1段階では、条件付き画像合成のタスクにおいて、データ分布のクラス間変動を利用する。
第2段階では,皮膚病変分類のための深部畳み込みニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2020-04-14T22:46:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。