論文の概要: A Comparative Study of Deep Learning Loss Functions for Multi-Label
Remote Sensing Image Classification
- arxiv url: http://arxiv.org/abs/2009.13935v1
- Date: Tue, 29 Sep 2020 11:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:43:58.216875
- Title: A Comparative Study of Deep Learning Loss Functions for Multi-Label
Remote Sensing Image Classification
- Title(参考訳): マルチラベルリモートセンシング画像分類のためのディープラーニング損失関数の比較検討
- Authors: Hichame Yessou, Gencer Sumbul, Beg\"um Demir
- Abstract要約: 1)クロスエントロピー損失, 2) 焦点損失, 3) 重み付きクロスエントロピー損失, 4) ハミング損失, 5) ハマー損失, 6) ランキング損失, 7) スパースマックス損失。
マルチラベルRSシーン分類問題における損失関数の適切な選択のためのガイドラインが導出されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper analyzes and compares different deep learning loss functions in
the framework of multi-label remote sensing (RS) image scene classification
problems. We consider seven loss functions: 1) cross-entropy loss; 2) focal
loss; 3) weighted cross-entropy loss; 4) Hamming loss; 5) Huber loss; 6)
ranking loss; and 7) sparseMax loss. All the considered loss functions are
analyzed for the first time in RS. After a theoretical analysis, an
experimental analysis is carried out to compare the considered loss functions
in terms of their: 1) overall accuracy; 2) class imbalance awareness (for which
the number of samples associated to each class significantly varies); 3)
convexibility and differentiability; and 4) learning efficiency (i.e.,
convergence speed). On the basis of our analysis, some guidelines are derived
for a proper selection of a loss function in multi-label RS scene
classification problems.
- Abstract(参考訳): 本稿では,複数ラベルリモートセンシング(rs)画像シーン分類問題の枠組みにおいて,異なる深層学習損失関数を分析し,比較する。
7つの損失関数を考える。
1) クロスエントロピー損失
2) 焦点損失
3) 重み付きクロスエントロピー損失
4) 損失を減少させる。
5) フーバーロス
6) ランキングの損失,及び
7) スパースマックス損失。
全ての損失関数は rs において初めて解析される。
理論的解析の後, 評価された損失関数を比較検討するために, 実験的検討を行った。
1) 総合的正確性
2) クラス不均衡意識(各クラスに関連づけられたサンプルの数が大きく異なる)
3)可逆性と可微分性,及び
4)学習効率(すなわち収束速度)。
本分析に基づいて,多ラベルRSシーン分類問題における損失関数の適切な選択のためのガイドラインを導出した。
関連論文リスト
- Tuned Contrastive Learning [77.67209954169593]
そこで本研究では,TCL(Tuned Contrastive Learning)損失という,新たなコントラスト損失関数を提案する。
TCLはバッチ内の複数の正と負に一般化し、ハードな正とハードな負の勾配応答を調整および改善するためのパラメータを提供する。
我々は、TCLを自己教師付き設定に拡張する方法を示し、それを様々なSOTA自己教師型学習手法と経験的に比較する。
論文 参考訳(メタデータ) (2023-05-18T03:26:37Z) - SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - Alternate Loss Functions for Classification and Robust Regression Can Improve the Accuracy of Artificial Neural Networks [6.452225158891343]
本稿では,ニューラルネットワークのトレーニング速度と最終的な精度が,ニューラルネットワークのトレーニングに使用する損失関数に大きく依存することを示す。
様々なベンチマークタスクの性能を著しく向上させる2つの新しい分類損失関数を提案する。
論文 参考訳(メタデータ) (2023-03-17T12:52:06Z) - A survey and taxonomy of loss functions in machine learning [51.35995529962554]
本稿では, 回帰, 分類, 生成モデル, ランキング, エネルギーベースモデリングなど, 主要なアプリケーションにまたがる最も広く使われている損失関数について概観する。
直感的な分類法で構築された43個の個別の損失関数を導入し,それらの理論的基礎,特性,最適な適用状況を明らかにした。
論文 参考訳(メタデータ) (2023-01-13T14:38:24Z) - Evaluating the Impact of Loss Function Variation in Deep Learning for
Classification [0.0]
損失関数は間違いなく、ニューラルネットワークにとって最も重要なハイパーパラメータの1つである。
ニューラルネットワークを教師付き分類設定で検討し、損失関数の選択がトレーニング結果に与える影響を分析する。
特定の損失関数は過度に最適に機能するが、我々の研究は、表現不足の損失が最先端の選択肢を大幅に上回っていることを実証的に示している。
論文 参考訳(メタデータ) (2022-10-28T09:10:10Z) - Do Lessons from Metric Learning Generalize to Image-Caption Retrieval? [67.45267657995748]
半ハードな負のトリプルト損失は、スクラッチから最適化されたイメージキャプション検索(ICR)メソッドのデファクト選択となっている。
近年のメトリクス学習の進歩により、画像検索や表現学習といったタスクにおいて、三重項損失を上回る新たな損失関数が生まれている。
これらの結果は,2つのICR法における3つの損失関数を比較することで,ICRの設定に一般化するかどうかを問う。
論文 参考訳(メタデータ) (2022-02-14T15:18:00Z) - Loss Function Discovery for Object Detection via Convergence-Simulation
Driven Search [101.73248560009124]
本稿では,効率的な収束シミュレーションによる進化的探索アルゴリズムCSE-Autolossを提案する。
一般的な検出器上での損失関数探索の広範囲な評価を行い、探索された損失の優れた一般化能力を検証した。
実験の結果, 2段検出器と1段検出器のmAPでは, 最適損失関数の組み合わせが1.1%と0.8%を上回っていることがわかった。
論文 参考訳(メタデータ) (2021-02-09T08:34:52Z) - A Mixed Focal Loss Function for Handling Class Imbalanced Medical Image
Segmentation [0.7619404259039283]
声帯損失とDice損失関数の修正版から導出した新しい化合物損失関数を提案する。
提案した損失関数は、より優れたリコール精度バランスに関連付けられ、二値画像と多値画像のセグメンテーションにおいて、他の損失関数よりも大幅に優れる。
論文 参考訳(メタデータ) (2021-02-08T20:47:38Z) - Why Do Better Loss Functions Lead to Less Transferable Features? [93.47297944685114]
本稿では,画像ネット上で学習した畳み込みニューラルネットワークの隠れ表現が,学習対象の選択が伝達可能性に与える影響について検討する。
我々は,多くの目的が,バニラソフトマックスのクロスエントロピーよりも画像ネットの精度を統計的に有意に向上させることを示した。
論文 参考訳(メタデータ) (2020-10-30T17:50:31Z) - Learning Condition Invariant Features for Retrieval-Based Localization
from 1M Images [85.81073893916414]
我々は、より正確で、より一般化されたローカライゼーション特徴を学習する新しい方法を開発した。
難易度の高いオックスフォード・ロボットカーの夜間条件では、5m以内の局所化精度でよく知られた三重項損失を24.4%上回っている。
論文 参考訳(メタデータ) (2020-08-27T14:46:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。