論文の概要: OWAdapt: An adaptive loss function for deep learning using OWA operators
- arxiv url: http://arxiv.org/abs/2305.19443v2
- Date: Thu, 12 Oct 2023 12:02:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 15:26:14.250318
- Title: OWAdapt: An adaptive loss function for deep learning using OWA operators
- Title(参考訳): OWAdapt: OWA演算子を用いたディープラーニングのための適応的損失関数
- Authors: Sebasti\'an Maldonado, Carla Vairetti, Katherine Jara, Miguel
Carrasco, Julio L\'opez
- Abstract要約: 分類タスクにおけるディープラーニング性能を向上させるファジィ適応損失関数を提案する。
本稿では,ファジィ論理のパワーを活用して分類精度を向上させる手法を提案する。
本手法は、標準的なクロスエントロピーや焦点損失など、他の一般的な損失関数よりも優れている。
- 参考スコア(独自算出の注目度): 0.8437187555622164
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we propose a fuzzy adaptive loss function for enhancing deep
learning performance in classification tasks. Specifically, we redefine the
cross-entropy loss to effectively address class-level noise conditions,
including the challenging problem of class imbalance. Our approach introduces
aggregation operators, leveraging the power of fuzzy logic to improve
classification accuracy. The rationale behind our proposed method lies in the
iterative up-weighting of class-level components within the loss function,
focusing on those with larger errors. To achieve this, we employ the ordered
weighted average (OWA) operator and combine it with an adaptive scheme for
gradient-based learning. Through extensive experimentation, our method
outperforms other commonly used loss functions, such as the standard
cross-entropy or focal loss, across various binary and multiclass
classification tasks. Furthermore, we explore the influence of hyperparameters
associated with the OWA operators and present a default configuration that
performs well across different experimental settings.
- Abstract(参考訳): 本稿では,分類タスクにおける深層学習性能を向上させるファジィ適応損失関数を提案する。
具体的には,クロスエントロピー損失を再定義し,クラスレベルのノイズ条件に効果的に対処する。
本手法では,ファジィ論理のパワーを利用して分類精度を向上させるアグリゲーション演算子を導入する。
提案手法の背景にある理論的根拠は、損失関数内のクラスレベルのコンポーネントの反復的な重み付けであり、エラーが大きいコンポーネントに焦点を当てている。
これを実現するために、順序付き重み付き平均演算子(OWA)を用い、勾配学習のための適応型スキームと組み合わせる。
広範囲な実験により,本手法は,標準クロスエントロピーや焦点損失といった他の一般的な損失関数を,様々なバイナリ・マルチクラス分類タスクで上回っている。
さらに,owaオペレータに関連するハイパーパラメータの影響について検討し,異なる実験設定で動作可能なデフォルト設定を提案する。
関連論文リスト
- Improving GBDT Performance on Imbalanced Datasets: An Empirical Study of Class-Balanced Loss Functions [3.559225731091162]
本稿では,3つのグラディエントブースティング決定木(GBDT)アルゴリズムにクラスバランス損失関数を適用するための総合的研究について述べる。
各種GBDTモデルに対するクラスバランス損失の影響を評価するため,複数のデータセットに対する広範囲な実験を行った。
この結果から,不均衡データセット上でのGBDT性能を向上させるためのクラスバランス損失関数の可能性が示された。
論文 参考訳(メタデータ) (2024-07-19T15:10:46Z) - Automated Loss function Search for Class-imbalanced Node Classification [15.384438539835164]
クラス不均衡ノード分類タスクは、現実世界のシナリオで一般的である。
この課題に対処するために,高性能でフレキシブルで汎用的な自動損失関数探索フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-23T03:12:49Z) - Optimizing for ROC Curves on Class-Imbalanced Data by Training over a Family of Loss Functions [3.06506506650274]
重度のクラス不均衡の下で信頼性の高い分類器を訓練することは、コンピュータビジョンにおいて難しい問題である。
近年の研究では、損失関数や最適化方法の変更により、不均衡下でのトレーニングの効果を緩和する手法が提案されている。
単一損失関数ではなく、損失関数の族に対するトレーニングを提案する。
論文 参考訳(メタデータ) (2024-02-08T04:31:21Z) - Class-attribute Priors: Adapting Optimization to Heterogeneity and
Fairness Objective [54.33066660817495]
現代の分類問題は、個々のクラスにまたがって不均一性を示す。
本稿では,クラス固有の学習戦略を効果的かつ汎用的に生成するCAPを提案する。
CAPは先行技術と競合しており、その柔軟性により、バランスの取れた精度以上の公平性目標に対する明確なメリットが期待できる。
論文 参考訳(メタデータ) (2024-01-25T17:43:39Z) - Generalized Inter-class Loss for Gait Recognition [11.15855312510806]
歩行認識は、遠隔操作で非協調的に行うことのできるユニークな生体計測技術である。
それまでの歩行作業は、クラス間の分散を制限することの重要性を無視しながら、クラス内の分散を最小化することに焦点を当てていた。
サンプルレベルの特徴分布とクラスレベルの特徴分布の両方からクラス間の分散を解消する一般化されたクラス間損失を提案する。
論文 参考訳(メタデータ) (2022-10-13T06:44:53Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Adversarially Robust Learning via Entropic Regularization [31.6158163883893]
我々は、敵対的に堅牢なディープニューラルネットワークを訓練するための新しいアルゴリズムATENTを提案する。
我々の手法は、頑健な分類精度の観点から、競争力(またはより良い)性能を達成する。
論文 参考訳(メタデータ) (2020-08-27T18:54:43Z) - AP-Loss for Accurate One-Stage Object Detection [49.13608882885456]
一段階の物体検出器は、分類損失と局所化損失を同時に最適化することによって訓練される。
前者は、多数のアンカーのため、非常に前景と後方のアンカーの不均衡に悩まされる。
本稿では,一段検知器の分類タスクをランキングタスクに置き換える新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-08-17T13:22:01Z) - Learning Adaptive Loss for Robust Learning with Noisy Labels [59.06189240645958]
ロバスト損失は、堅牢な学習問題を扱うための重要な戦略である。
本稿では,強靭なハイパーチューニングが可能なメタ学習手法を提案する。
4種類のSOTA損失関数は, 最小化, 一般利用, 有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T00:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。