論文の概要: Striking the Right Balance: Recall Loss for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2106.14917v1
- Date: Mon, 28 Jun 2021 18:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 09:14:04.146253
- Title: Striking the Right Balance: Recall Loss for Semantic Segmentation
- Title(参考訳): 正しいバランスを取る:セマンティックセグメンテーションの損失をリコールする
- Authors: Junjiao Tian, Niluthpol Mithun, Zach Seymour, Han-Pang Chiu, Zsolt
Kira
- Abstract要約: クラス不均衡は、セマンティックセグメンテーションのようなコンピュータビジョンアプリケーションにおける基本的な問題である。
我々は,バニラクロスエントロピー損失を変形させることにより,ハードクラスの鉱業損失を提案する。
本研究では, 標準クロスエントロピー損失と逆周波数重み付き損失との間に, 新たなリコール損失が徐々に変化することを示す。
- 参考スコア(独自算出の注目度): 24.047359482606307
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class imbalance is a fundamental problem in computer vision applications such
as semantic segmentation. Specifically, uneven class distributions in a
training dataset often result in unsatisfactory performance on
under-represented classes. Many works have proposed to weight the standard
cross entropy loss function with pre-computed weights based on class
statistics, such as the number of samples and class margins. There are two
major drawbacks to these methods: 1) constantly up-weighting minority classes
can introduce excessive false positives in semantic segmentation; 2) a minority
class is not necessarily a hard class. The consequence is low precision due to
excessive false positives. In this regard, we propose a hard-class mining loss
by reshaping the vanilla cross entropy loss such that it weights the loss for
each class dynamically based on instantaneous recall performance. We show that
the novel recall loss changes gradually between the standard cross entropy loss
and the inverse frequency weighted loss. Recall loss also leads to improved
mean accuracy while offering competitive mean Intersection over Union (IoU)
performance. On Synthia dataset, recall loss achieves 9% relative improvement
on mean accuracy with competitive mean IoU using DeepLab-ResNet18 compared to
the cross entropy loss. Code available at
https://github.com/PotatoTian/recall-semseg.
- Abstract(参考訳): クラス不均衡は、セマンティックセグメンテーションのようなコンピュータビジョンアプリケーションにおける基本的な問題である。
特に、トレーニングデータセット内の不均一なクラス分布は、しばしば、未表示のクラスで不十分なパフォーマンスをもたらす。
多くの研究は、サンプル数やクラスマージンなど、クラス統計に基づく事前計算された重み付き標準クロスエントロピー損失関数の重み付けを提案している。
1) 常に重み付けされたマイノリティクラスは、セマンティックセグメンテーションにおいて過剰な偽陽性を導入することができる; 2) マイノリティークラスは必ずしもハードクラスではない。
その結果、過剰な偽陽性による精度が低い。
そこで本研究では,バニラクロスエントロピー損失を瞬時リコール性能に基づいて動的にクラス毎の損失を重み付けるように再構成し,ハードクラスマイニング損失を提案する。
従来のクロスエントロピー損失と逆周波数重み付き損失との間には,新たなリコール損失が徐々に変化することを示す。
また、リコール損失により平均精度が向上し、IoU(Universal Intersection over Union)のパフォーマンスが向上する。
Synthiaデータセットでは,クロスエントロピー損失と比較して,DeepLab-ResNet18を用いた競合平均IoUの平均精度が9%向上した。
コードはhttps://github.com/potatotian/recall-semsegで入手できる。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Class Instance Balanced Learning for Long-Tailed Classification [0.0]
ロングテール画像分類タスクは、トレーニングデータのクラス周波数における大きな不均衡を扱う。
従来のアプローチでは、クロスエントロピーとコントラスト学習を組み合わせることで、長いタスクのパフォーマンスが向上することが示されている。
学習バッチにおけるクラスインスタンスの頻度の関数として,クロスエントロピーと対照的な損失の相対的寄与を重み付けする新しいクラスインスタンス平衡損失(CIBL)を提案する。
論文 参考訳(メタデータ) (2023-07-11T15:09:10Z) - Escaping Saddle Points for Effective Generalization on Class-Imbalanced
Data [40.64419633190104]
我々は、再重み付けとマージンに基づく手法で訓練されたニューラルネットワークの損失状況を調べることによって、クラス不均衡の学習問題を解析する。
本研究では,サドル点から逃れるために設計された最適化手法を,マイノリティクラスにおける一般化の効率化に有効に活用できることを見出した。
SAMを使用することで、最先端のベクタースケーリング損失よりもマイノリティークラスでは6.2%の精度が向上し、不均衡なデータセット全体の平均4%が増加した。
論文 参考訳(メタデータ) (2022-12-28T14:00:44Z) - Neural Collapse Inspired Attraction-Repulsion-Balanced Loss for
Imbalanced Learning [97.81549071978789]
勾配の異なる成分のバランスをとるために,Attraction-Repulsion-Balanced Loss (ARB-Loss)を提案する。
大規模分類とセグメンテーションデータセットの実験を行い、ARB-Lossは最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-19T08:23:23Z) - Stochastic smoothing of the top-K calibrated hinge loss for deep
imbalanced classification [8.189630642296416]
トップK損失に関する最近の進展にインスパイアされたトップKヒンジ損失を導入する。
提案手法は,フレキシブルな"摂動"フレームワーク上に構築されたトップK演算子の平滑化に基づいている。
我々の損失関数は、バランスの取れたデータセットの場合において非常によく機能し、計算時間もかなり少ないことを示します。
論文 参考訳(メタデータ) (2022-02-04T15:39:32Z) - You Only Need End-to-End Training for Long-Tailed Recognition [8.789819609485225]
クロスエントロピー損失は、不均衡なデータに非常に相関した特徴をもたらす傾向にある。
ブロックベース相対平衡バッチサンプリング(B3RS)とバッチ埋め込みトレーニング(BET)の2つの新しいモジュールを提案する。
CIFAR-LT と ImageNet-LT の長期分類ベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-12-11T11:44:09Z) - Mixing between the Cross Entropy and the Expectation Loss Terms [89.30385901335323]
クロスエントロピー損失は、トレーニング中にサンプルを分類するのが難しくなる傾向にある。
最適化目標に期待損失を加えることで,ネットワークの精度が向上することを示す。
実験により,新しいトレーニングプロトコルにより,多様な分類領域における性能が向上することが示された。
論文 参考訳(メタデータ) (2021-09-12T23:14:06Z) - Learning with Noisy Labels via Sparse Regularization [76.31104997491695]
ノイズの多いラベルで学習することは、正確なディープニューラルネットワークをトレーニングするための重要なタスクである。
クロスエントロピー(Cross Entropy, CE)など、一般的に使われている損失関数は、ノイズラベルへの過度なオーバーフィットに悩まされている。
我々は, スパース正規化戦略を導入し, ワンホット制約を近似する。
論文 参考訳(メタデータ) (2021-07-31T09:40:23Z) - Identifying and Compensating for Feature Deviation in Imbalanced Deep
Learning [59.65752299209042]
このようなシナリオ下でのConvNetの学習について検討する。
私たちは、ConvNetがマイナーなクラスにかなり適合していることに気づきました。
クラス依存型温度トレーニング(CDT)のConvNetの導入を提案する。
論文 参考訳(メタデータ) (2020-01-06T03:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。