論文の概要: Label Smoothing++: Enhanced Label Regularization for Training Neural Networks
- arxiv url: http://arxiv.org/abs/2509.05307v1
- Date: Fri, 22 Aug 2025 23:11:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-14 20:41:04.9072
- Title: Label Smoothing++: Enhanced Label Regularization for Training Neural Networks
- Title(参考訳): Label Smoothing++: ニューラルネットワークのトレーニングのためのラベル正規化の強化
- Authors: Sachin Chhabra, Hemanth Venkateswara, Baoxin Li,
- Abstract要約: シングルホットターゲットラベルによるニューラルネットワークのトレーニングは、しばしば過剰な自信と過度な適合をもたらす。
ラベルスムーシング++と呼ばれる新しいラベル正規化学習手法を提案する。
提案手法では,対象クラスに対して固定ラベルを用いて,非対象クラスに関連するラベルをネットワークで学習する。
- 参考スコア(独自算出の注目度): 8.189630642296416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training neural networks with one-hot target labels often results in overconfidence and overfitting. Label smoothing addresses this issue by perturbing the one-hot target labels by adding a uniform probability vector to create a regularized label. Although label smoothing improves the network's generalization ability, it assigns equal importance to all the non-target classes, which destroys the inter-class relationships. In this paper, we propose a novel label regularization training strategy called Label Smoothing++, which assigns non-zero probabilities to non-target classes and accounts for their inter-class relationships. Our approach uses a fixed label for the target class while enabling the network to learn the labels associated with non-target classes. Through extensive experiments on multiple datasets, we demonstrate how Label Smoothing++ mitigates overconfident predictions while promoting inter-class relationships and generalization capabilities.
- Abstract(参考訳): シングルホットターゲットラベルによるニューラルネットワークのトレーニングは、しばしば過剰な自信と過度な適合をもたらす。
ラベルスムース化は、正規化ラベルを作成するために均一な確率ベクトルを追加することで、1ホットターゲットラベルを摂動することでこの問題に対処する。
ラベルの平滑化はネットワークの一般化能力を改善するが、クラス間の関係を破壊する全ての非ターゲットクラスに等しく重要性を割り当てる。
本稿では,非ゼロ確率を非ターゲットクラスに割り当て,クラス間関係を考慮したラベル正規化学習手法であるLabel Smoothing++を提案する。
提案手法では,対象クラスに対して固定ラベルを用いて,非対象クラスに関連するラベルをネットワークで学習する。
複数のデータセットに関する広範な実験を通じて、Label Smoothing++は、クラス間の関係と一般化能力を促進しながら、過信予測を緩和する方法を実証する。
関連論文リスト
- Overcoming label shift with target-aware federated learning [10.355835466049092]
フェデレートラーニングにより、複数のアクターがプライベートデータを共有せずに、協力的にモデルをトレーニングできる。
一般的な理由はラベルシフトです -- ラベルの分布がクライアントとターゲットドメインによって異なります。
対象領域の性能向上のためにラベルシフトに適応する,原則的で実用的なモデルアグリゲーションスキームであるFedPALSを提案する。
論文 参考訳(メタデータ) (2024-11-06T09:52:45Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Determined Multi-Label Learning via Similarity-Based Prompt [12.428779617221366]
マルチラベル分類では、各トレーニングインスタンスは複数のクラスラベルに同時に関連付けられている。
この問題を軽減するために,textitDetermined Multi-Label Learning (DMLL) と呼ばれる新しいラベル設定を提案する。
論文 参考訳(メタデータ) (2024-03-25T07:08:01Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - CLS: Cross Labeling Supervision for Semi-Supervised Learning [9.929229055862491]
Cross Labeling Supervision (CLS) は、典型的な擬似ラベル処理を一般化するフレームワークである。
CLSは擬似ラベルと相補ラベルの両方を作成でき、正と負の両方の学習をサポートする。
論文 参考訳(メタデータ) (2022-02-17T08:09:40Z) - Instance-based Label Smoothing For Better Calibrated Classification
Networks [3.388509725285237]
ラベルの平滑化はディープニューラルネットワークで多クラス分類に広く利用されている。
ラベルのスムース化と自己蒸留の両方からインスピレーションを得ます。
本稿では2つの新しいインスタンスベースのラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:33:23Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z) - Learning Soft Labels via Meta Learning [3.4852307714135375]
シングルホットラベルは概念間のソフトな決定境界を表現していないため、トレーニングされたモデルは過度に適合する傾向にある。
そこで我々は,ラベルを学習可能なパラメータとして扱い,モデルパラメータとともに最適化するフレームワークを提案する。
本研究では, 学習ラベルがクラス間の意味的関係を捉え, 蒸留の下流作業における教師モデルを改善することを示す。
論文 参考訳(メタデータ) (2020-09-20T18:42:13Z) - Knowledge-Guided Multi-Label Few-Shot Learning for General Image
Recognition [75.44233392355711]
KGGRフレームワークは、ディープニューラルネットワークと統計ラベル相関の事前知識を利用する。
まず、統計ラベルの共起に基づいて異なるラベルを相関させる構造化知識グラフを構築する。
次に、ラベルセマンティクスを導入し、学習セマンティクス固有の特徴をガイドする。
グラフノードの相互作用を探索するためにグラフ伝搬ネットワークを利用する。
論文 参考訳(メタデータ) (2020-09-20T15:05:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。