論文の概要: Class Adaptive Network Calibration
- arxiv url: http://arxiv.org/abs/2211.15088v1
- Date: Mon, 28 Nov 2022 06:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 18:38:48.727013
- Title: Class Adaptive Network Calibration
- Title(参考訳): クラス適応型ネットワーク校正
- Authors: Bingyuan Liu, J\'er\^ome Rony, Adrian Galdran, Jose Dolz, Ismail Ben
Ayed
- Abstract要約: ディープネットワークの校正のためのクラス適応ラベル平滑化(CALS)を提案する。
提案手法は,制約付き最適化において確立された手法である拡張ラグランジアンアプローチに基づいて構築される。
- 参考スコア(独自算出の注目度): 19.80805957502909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have revealed that, beyond conventional accuracy, calibration
should also be considered for training modern deep neural networks. To address
miscalibration during learning, some methods have explored different penalty
functions as part of the learning objective, alongside a standard
classification loss, with a hyper-parameter controlling the relative
contribution of each term. Nevertheless, these methods share two major
drawbacks: 1) the scalar balancing weight is the same for all classes,
hindering the ability to address different intrinsic difficulties or imbalance
among classes; and 2) the balancing weight is usually fixed without an adaptive
strategy, which may prevent from reaching the best compromise between accuracy
and calibration, and requires hyper-parameter search for each application. We
propose Class Adaptive Label Smoothing (CALS) for calibrating deep networks,
which allows to learn class-wise multipliers during training, yielding a
powerful alternative to common label smoothing penalties. Our method builds on
a general Augmented Lagrangian approach, a well-established technique in
constrained optimization, but we introduce several modifications to tailor it
for large-scale, class-adaptive training. Comprehensive evaluation and multiple
comparisons on a variety of benchmarks, including standard and long-tailed
image classification, semantic segmentation, and text classification,
demonstrate the superiority of the proposed method. The code is available at
https://github.com/by-liu/CALS.
- Abstract(参考訳): 最近の研究では、従来の精度以上のキャリブレーションは、現代のディープニューラルネットワークのトレーニングにも考慮すべきであることが示されている。
学習中の誤校正に対処するために,各項の相対的寄与を制御するハイパーパラメータを用いて,学習目標の一部として異なるペナルティ関数を探索した手法がある。
しかしながら、これらの手法には2つの大きな欠点がある。
1) スカラーバランスの重みは,すべてのクラスにおいて同じであり,クラス間の内在的困難や不均衡に対処する能力を妨げる。
2) バランスウェイトは適応戦略を使わずに固定され, 精度とキャリブレーションの最良の妥協点に達するのを防ぎ, 各アプリケーションに対してハイパーパラメーター探索が必要となる。
そこで本研究では,深層ネットワークを校正するクラス適応ラベル平滑化(cals)を提案する。
提案手法は,制約付き最適化における確立された手法である一般拡張ラグランジアンアプローチに基づいているが,大規模クラス適応型トレーニングのための修正がいくつか導入されている。
標準およびロングテール画像分類、意味セグメンテーション、テキスト分類を含む様々なベンチマークにおける総合的評価と多重比較は、提案手法の優位性を示している。
コードはhttps://github.com/by-liu/CALSで公開されている。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Long-Tailed Learning as Multi-Objective Optimization [29.012779934262973]
シーソージレンマは、異なるクラスの勾配不均衡に由来すると論じる。
そこで我々は,同じような勾配方向のクラスを収集するグラディエント・バランシング・グループ(GBG)戦略を提案する。
論文 参考訳(メタデータ) (2023-10-31T14:30:31Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Scaling of Class-wise Training Losses for Post-hoc Calibration [6.0632746602205865]
そこで本研究では,クラスレベルの学習損失を同期させるキャリブレーション手法を提案する。
複数のクラスワイドスケーリング因子を用いて、クラスワイドトレーニング損失の分散を軽減するために、新しいトレーニング損失を設計する。
種々のポストホックキャリブレーション手法を用いて,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-06-19T14:59:37Z) - Multi-Head Multi-Loss Model Calibration [13.841172927454204]
我々は,深層アンサンブルの訓練と推論に要する費用を省く,単純化されたアンサンブルの形式を導入する。
具体的には、各頭部は、重み付きクロスエントロピー損失を最小限に抑えるために訓練されるが、重みは異なる枝によって異なる。
その結果,2つの挑戦データセットにおいて精度を犠牲にすることなく,精度の高いキャリブレーションを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T09:32:32Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Instance-based Label Smoothing For Better Calibrated Classification
Networks [3.388509725285237]
ラベルの平滑化はディープニューラルネットワークで多クラス分類に広く利用されている。
ラベルのスムース化と自己蒸留の両方からインスピレーションを得ます。
本稿では2つの新しいインスタンスベースのラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:33:23Z) - Understanding the Generalization of Adam in Learning Neural Networks
with Proper Regularization [118.50301177912381]
我々は,重力減衰グローバリゼーションにおいても,目的の異なる解に確実に異なる誤差で収束できることを示す。
凸と重み減衰正則化を用いると、Adamを含む任意の最適化アルゴリズムは同じ解に収束することを示す。
論文 参考訳(メタデータ) (2021-08-25T17:58:21Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。