論文の概要: Consistent Batch Normalization for Weighted Loss in Imbalanced-Data
Environment
- arxiv url: http://arxiv.org/abs/2001.01433v3
- Date: Wed, 13 May 2020 02:51:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 02:00:01.254437
- Title: Consistent Batch Normalization for Weighted Loss in Imbalanced-Data
Environment
- Title(参考訳): 不均衡データ環境における重み付き損失の連続バッチ正規化
- Authors: Muneki Yasuda and Yeo Xian En and Seishirou Ueno
- Abstract要約: 不均衡データセットからの学習は、機械学習の分野で最も重要な実践的問題の1つである。
本研究では,重み付き損失関数 (WLF) とバッチ正規化 (BN) の組み合わせを検討した。
BN の単純な修正は、重み付け BN (WBN) と呼ばれ、サイズミスマッチを補正するために提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, classification problems based on feedforward neural networks
in a data-imbalanced environment are considered. Learning from an imbalanced
dataset is one of the most important practical problems in the field of machine
learning. A weighted loss function (WLF) based on a cost-sensitive approach is
a well-known and effective method for imbalanced datasets. A combination of WLF
and batch normalization (BN) is considered in this study. BN is considered as a
powerful standard technique in the recent developments in deep learning. A
simple combination of both methods leads to a size-inconsistency problem due to
a mismatch between the interpretations of the effective size of the dataset in
both methods. A simple modification to BN, called weighted BN (WBN), is
proposed to correct the size mismatch. The idea of WBN is simple and natural.
The proposed method in a data-imbalanced environment is validated using
numerical experiments.
- Abstract(参考訳): 本研究では,データ不均衡環境におけるフィードフォワードニューラルネットワークに基づく分類問題を考える。
不均衡データセットからの学習は、機械学習の分野で最も重要な実践的問題の1つである。
コスト感受性アプローチに基づく重み付き損失関数(WLF)は、不均衡データセットのよく知られた効果的な方法である。
本稿では WLF とバッチ正規化 (BN) の組み合わせについて考察する。
BNは近年のディープラーニングの発展において、強力な標準技術であると考えられている。
両方の手法の単純な組み合わせは、両方の手法におけるデータセットの有効サイズの解釈のミスマッチによるサイズ不整合の問題につながる。
BN の単純な修正は、重み付け BN (WBN) と呼ばれ、サイズミスマッチを補正するために提案されている。
WBNの考え方は単純で自然なものである。
データ不均衡環境における提案手法を数値実験により検証した。
関連論文リスト
- Accuracy and Robustness of Weight-Balancing Methods for Training PINNs [0.06906005491572399]
PINNの文脈で精度と堅牢性を明確に定義する。
本稿では,Primal-Dual (PD) 最適化フレームワークに基づく新しいトレーニングアルゴリズムを提案する。
提案手法は,既存のウェイトバランス法に匹敵する性能を維持しつつ,PINNの堅牢性を向上する。
論文 参考訳(メタデータ) (2025-01-30T18:54:22Z) - Rethinking the Bias of Foundation Model under Long-tailed Distribution [18.80942166783087]
下流タスクの基盤モデルで継承される不均衡バイアスはパラメータ不均衡とデータ不均衡である。
微調整中、パラメータの不均衡がより重要な役割を果たすのに対し、データ不均衡は既存の再バランス戦略によって緩和される。
本稿では,入力サンプルとラベル間の真の因果関係を学習する新しいバックドア調整手法を提案する。
論文 参考訳(メタデータ) (2025-01-27T11:00:19Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - A Hybrid Approach for Binary Classification of Imbalanced Data [0.0]
本稿では,データブロック構築,次元減少,アンサンブル学習を併用したハイブリットアプローチHADRを提案する。
我々は、8つの不均衡な公開データセットの性能をリコール、G平均、AUCで評価した。
論文 参考訳(メタデータ) (2022-07-06T15:18:41Z) - Phased Progressive Learning with Coupling-Regulation-Imbalance Loss for
Imbalanced Classification [11.673344551762822]
ディープニューラルネットワークは、一般に、異なるクラス間の量不均衡と分類困難の不均衡に苦しむデータセットで性能が良くない。
表象学習から上位クラス化学習への学習強調を円滑に伝達する段階的な進行学習スケジュールが提案された。
私たちのコードはまもなくオープンソースになります。
論文 参考訳(メタデータ) (2022-05-24T14:46:39Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Rebalancing Batch Normalization for Exemplar-based Class-Incremental
Learning [23.621259845287824]
バッチ正規化(BN)は、様々なコンピュータビジョンタスクにおけるニューラルネットに対して広く研究されている。
我々はBNの新しい更新パッチを開発し、特にCIL(Exemplar-based class-incremental Learning)に特化している。
論文 参考訳(メタデータ) (2022-01-29T11:03:03Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Double Forward Propagation for Memorized Batch Normalization [68.34268180871416]
バッチ正規化(BN)は、ディープニューラルネットワーク(DNN)の設計における標準コンポーネントである。
より正確でロバストな統計値を得るために,複数の最近のバッチを考慮に入れた記憶型バッチ正規化(MBN)を提案する。
関連する手法と比較して、提案したMBNはトレーニングと推論の両方において一貫した振る舞いを示す。
論文 参考訳(メタデータ) (2020-10-10T08:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。