論文の概要: Deep Similarity Learning Loss Functions in Data Transformation for Class
Imbalance
- arxiv url: http://arxiv.org/abs/2312.10556v1
- Date: Sat, 16 Dec 2023 23:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 15:54:28.805162
- Title: Deep Similarity Learning Loss Functions in Data Transformation for Class
Imbalance
- Title(参考訳): クラス不均衡のためのデータ変換における深い類似性学習損失関数
- Authors: Damian Horna and Lango Mateusz and Jerzy Stefanowski
- Abstract要約: 本稿では、ディープニューラルネットワークを用いて、マルチクラスデータの新しい表現を学習する。
本提案では,学習した組込み表現における例の位置などの特徴の分布を修正し,クラスサイズを変更しない。
マルチクラス不均衡ベンチマークデータセットと3つの分類器を用いた実験は,提案手法の利点を示した。
- 参考スコア(独自算出の注目度): 2.693342141713236
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Improving the classification of multi-class imbalanced data is more difficult
than its two-class counterpart. In this paper, we use deep neural networks to
train new representations of tabular multi-class data. Unlike the typically
developed re-sampling pre-processing methods, our proposal modifies the
distribution of features, i.e. the positions of examples in the learned
embedded representation, and it does not modify the class sizes. To learn such
embedded representations we introduced various definitions of triplet loss
functions: the simplest one uses weights related to the degree of class
imbalance, while the next proposals are intended for more complex distributions
of examples and aim to generate a safe neighborhood of minority examples.
Similarly to the resampling approaches, after applying such preprocessing,
different classifiers can be trained on new representations. Experiments with
popular multi-class imbalanced benchmark data sets and three classifiers showed
the advantage of the proposed approach over popular pre-processing methods as
well as basic versions of neural networks with classical loss function
formulations.
- Abstract(参考訳): マルチクラスの不均衡データの分類を改善することは、2クラスのデータよりも難しい。
本稿では,深層ニューラルネットワークを用いて表層多クラスデータの新しい表現を学習する。
一般に開発された前処理メソッドと異なり,本提案は特徴の分布,すなわち学習された組込み表現における例の位置を修飾し,クラスサイズを変更しない。
そのような組込み表現を学習するために、我々は様々な三重項損失関数の定義を導入した。最も単純なものは、クラス不均衡度に関連する重みを使い、次の提案は、サンプルのより複雑な分布を意図し、少数例の安全な近傍を生成することを目的としている。
再サンプリングアプローチと同様に、そのような前処理を適用した後、異なる分類器を新しい表現で訓練することができる。
一般的なマルチクラス不均衡ベンチマークデータセットと3つの分類器を用いた実験は、従来の損失関数の定式化を含むニューラルネットワークの基本バージョンと同様に、一般的な前処理手法よりも提案されたアプローチの利点を示した。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - SetConv: A New Approach for Learning from Imbalanced Data [29.366843553056594]
集合畳み込み操作とエピソード学習戦略を提案し,各クラスに1つの代表を抽出する。
提案アルゴリズムは入力順序に関わらず置換不変であることを示す。
論文 参考訳(メタデータ) (2021-04-03T22:33:30Z) - A Novel Adaptive Minority Oversampling Technique for Improved
Classification in Data Imbalanced Scenarios [23.257891827728827]
異なるクラスに属するトレーニングサンプルの割合の不均衡は、しばしば従来の分類器の性能低下を引き起こす。
不均衡なデータに対処する新しい3ステップ手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T09:58:02Z) - Variational Feature Disentangling for Fine-Grained Few-Shot
Classification [30.350307891161865]
ファインファインショット認識はしばしば、新しいカテゴリのデータの不足を訓練する問題に悩まされる。
本稿では,未確認クラスのクラス内ばらつきを増大させ,少ショット分類性能を向上させることに焦点を当てる。
論文 参考訳(メタデータ) (2020-10-07T08:13:42Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。