論文の概要: Mitigating Negative Flips via Margin Preserving Training
- arxiv url: http://arxiv.org/abs/2511.08322v1
- Date: Wed, 12 Nov 2025 01:52:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.760444
- Title: Mitigating Negative Flips via Margin Preserving Training
- Title(参考訳): マージン保存訓練による負のフリップの緩和
- Authors: Simone Ricci, Niccolò Biondi, Federico Pernici, Alberto Del Bimbo,
- Abstract要約: AIシステムの連続バージョン間の矛盾を最小限に抑えることは、全体的なエラーを減らすのと同じくらい重要である。
画像分類において、そのような矛盾は負のフリップとして現れ、更新されたモデルは以前に正しく分類されたテストサンプルを誤って分類する。
本稿では,改良版を学習しながら,オリジナルモデルのマージンを保存する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 30.10471850093451
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Minimizing inconsistencies across successive versions of an AI system is as crucial as reducing the overall error. In image classification, such inconsistencies manifest as negative flips, where an updated model misclassifies test samples that were previously classified correctly. This issue becomes increasingly pronounced as the number of training classes grows over time, since adding new categories reduces the margin of each class and may introduce conflicting patterns that undermine their learning process, thereby degrading performance on the original subset. To mitigate negative flips, we propose a novel approach that preserves the margins of the original model while learning an improved one. Our method encourages a larger relative margin between the previously learned and newly introduced classes by introducing an explicit margin-calibration term on the logits. However, overly constraining the logit margin for the new classes can significantly degrade their accuracy compared to a new independently trained model. To address this, we integrate a double-source focal distillation loss with the previous model and a new independently trained model, learning an appropriate decision margin from both old and new data, even under a logit margin calibration. Extensive experiments on image classification benchmarks demonstrate that our approach consistently reduces the negative flip rate with high overall accuracy.
- Abstract(参考訳): AIシステムの連続バージョン間の矛盾を最小限に抑えることは、全体的なエラーを減らすのと同じくらい重要である。
画像分類において、そのような矛盾は負のフリップとして現れ、更新されたモデルは以前に正しく分類されたテストサンプルを誤って分類する。
新たなカテゴリを追加することで、各クラスのマージンが減少し、学習プロセスを損なう競合するパターンが導入され、結果として元のサブセットのパフォーマンスが低下する可能性がある。
負のフリップを軽減するために,改良されたフリップを学習しながら,元のモデルのマージンを保存する新しい手法を提案する。
本手法は,ロジットに明示的なマージン校正項を導入することにより,これまでに学習したクラスと新たに導入したクラスとの相対差を増大させる。
しかし、新しいクラスに対するロジットマージンを過度に制限すると、新しい独立的に訓練されたモデルと比較して精度が大幅に低下する可能性がある。
これを解決するために,従来のモデルと独立に訓練された新しいモデルとを併用し,ロジット・マージン・キャリブレーションの下でも,古いデータと新しいデータの両方から適切な決定マージンを学習する。
画像分類ベンチマークの大規模な実験により、我々の手法は高い総合的精度で負のフリップ率を一貫して減少させることを示した。
関連論文リスト
- Tendency-driven Mutual Exclusivity for Weakly Supervised Incremental Semantic Segmentation [56.1776710527814]
Weakly Incremental Learning for Semantic (WILSS)は、トレーニング済みのセグメンテーションモデルを利用して、コスト効率と手軽に利用できるイメージレベルのラベルを使用して、新しいクラスをセグメンテーションする。
WILSSを解く最も一般的な方法は、各新しいクラスのシード領域の生成であり、ピクセルレベルの監視の一形態として機能する。
本研究は, 種子領域の挙動を綿密に調整した, 相互排他性に関する革新的, 傾向的関係について提案する。
論文 参考訳(メタデータ) (2024-04-18T08:23:24Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Bridging the Gap: Learning Pace Synchronization for Open-World Semi-Supervised Learning [44.91863420044712]
オープンワールドの半教師付き学習において、機械学習モデルはラベルなしのデータから新しいカテゴリを明らかにすることを任務とする。
本稿では,(1)モデル偏差を軽減するためにクラス固有の負のマージンを課するアダプティブ・コミュニケート・ラミナル・ロス,(2)モデルによって予測される擬似ラベルを利用した擬似ラベル・コントラッシブ・クラスタリングについて紹介する。
本手法は,授業の学習速度のバランスを保ち,画像Netデータセットの平均精度を3%向上させる。
論文 参考訳(メタデータ) (2023-09-21T09:44:39Z) - ELODI: Ensemble Logit Difference Inhibition for Positive-Congruent Training [110.52785254565518]
負のフリップ率(NFR)を減少させる既存の方法は、新しいモデルに古いモデルを模倣させたり、アンサンブルを使用したりすることで、全体的な精度を犠牲にしている。
我々は、NFRの低減におけるアンサンブルの役割を分析し、通常決定境界に近くない負のフリップを取り除くことを観察する。
本稿では,誤り率とNFRの両方でパラゴン性能を実現する分類システムを訓練するためのELODI(Ensemble Logit Difference Inhibition)を提案する。
論文 参考訳(メタデータ) (2022-05-12T17:59:56Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Positive-Congruent Training: Towards Regression-Free Model Updates [87.25247195148187]
画像分類において、サンプルワイドの不整合は「負のフリップ」として現れる
新しいモデルは、古い(参照)モデルによって正しく分類されたテストサンプルの出力を誤って予測する。
そこで本研究では,PC トレーニングのための簡易なアプローチである Focal Distillation を提案する。
論文 参考訳(メタデータ) (2020-11-18T09:00:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。