論文の概要: Exploiting Class Similarity for Machine Learning with Confidence Labels
and Projective Loss Functions
- arxiv url: http://arxiv.org/abs/2103.13607v1
- Date: Thu, 25 Mar 2021 04:49:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:59:04.304262
- Title: Exploiting Class Similarity for Machine Learning with Confidence Labels
and Projective Loss Functions
- Title(参考訳): 信頼ラベルと射影損失関数を用いた機械学習におけるクラス類似性の利用
- Authors: Gautam Rajendrakumar Gare and John Michael Galeotti
- Abstract要約: クラスラベルは相互に関連付けられており、特定のクラスラベルは他のクラスと類似している。
現在のラベリング技術では、このような類似情報を明示的に捉えられていない。
ノイズラベルは、クラス類似性から生じる難易度の結果であると考えるので、ノイズラベルを用いたニューラルネットワークのトレーニングに使用しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class labels used for machine learning are relatable to each other, with
certain class labels being more similar to each other than others (e.g. images
of cats and dogs are more similar to each other than those of cats and cars).
Such similarity among classes is often the cause of poor model performance due
to the models confusing between them. Current labeling techniques fail to
explicitly capture such similarity information. In this paper, we instead
exploit the similarity between classes by capturing the similarity information
with our novel confidence labels. Confidence labels are probabilistic labels
denoting the likelihood of similarity, or confusability, between the classes.
Often even after models are trained to differentiate between classes in the
feature space, the similar classes' latent space still remains clustered. We
view this type of clustering as valuable information and exploit it with our
novel projective loss functions. Our projective loss functions are designed to
work with confidence labels with an ability to relax the loss penalty for
errors that confuse similar classes. We use our approach to train neural
networks with noisy labels, as we believe noisy labels are partly a result of
confusability arising from class similarity. We show improved performance
compared to the use of standard loss functions. We conduct a detailed analysis
using the CIFAR-10 dataset and show our proposed methods' applicability to
larger datasets, such as ImageNet and Food-101N.
- Abstract(参考訳): 機械学習に使用されるクラスラベルは相互に関連付けられており、特定のクラスラベルは他と類似している(例)。
猫と犬のイメージは、猫と車の画像よりも似ています)。
このようなクラス間の類似性は、モデル間の混乱によるモデルパフォーマンスの低下の原因となることが多い。
現在のラベリング技術では、このような類似情報を明示的に捉えられていない。
本稿では,クラス間の類似性を利用して,新たな信頼ラベルとの類似性情報を取得する。
信頼ラベルは、クラス間の類似性または信頼可能性を示す確率的ラベルである。
モデルが特徴空間のクラスを区別するように訓練されても、同様のクラスの潜在空間は依然としてクラスタ化されている。
この種のクラスタリングを貴重な情報と考え,新しい投影損失関数を用いて活用する。
我々の射影損失関数は、類似のクラスを混乱させるエラーに対して損失ペナルティを緩和する機能を持つ信頼ラベルと連携するように設計されている。
ノイズラベルは、クラス類似性から生じる難易度の結果であると考えるので、ノイズラベルを用いたニューラルネットワークのトレーニングに使用しています。
標準損失関数と比較して性能が向上することを示す。
CIFAR-10データセットを用いて詳細な分析を行い、ImageNetやFood-101Nといった大規模データセットに提案手法の適用性を示す。
関連論文リスト
- Not All Negatives are Equal: Label-Aware Contrastive Loss for
Fine-grained Text Classification [0.0]
2つの細粒度テキスト分類タスクにおいて、事前訓練された言語モデルの対照的な微調整を解析する。
クラス関係を比較対象関数に適応的に組み込んで、正と負の異なる評価を支援する。
ラベルを意識したContrastive Lossは,従来のコントラスト手法よりも優れていた。
論文 参考訳(メタデータ) (2021-09-12T04:19:17Z) - MSE Loss with Outlying Label for Imbalanced Classification [10.305130700118399]
クラス不均衡分類のための外付けラベルを用いた平均二乗誤差(MSE)損失を提案する。
MSE損失は、すべてのクラスのバック伝搬数を等しくし、メトリック学習としてのクラス間の関係を考慮して特徴空間を学習することができる。
高微分クラスと低微分クラスを分離する機能空間を作成することができる。
論文 参考訳(メタデータ) (2021-07-06T05:17:00Z) - A Theory-Driven Self-Labeling Refinement Method for Contrastive
Representation Learning [111.05365744744437]
教師なしのコントラスト学習は、正のイメージの作物と、負のイメージの作物とをラベル付けする。
本研究は, コントラスト学習において, 不正確なラベル割り当てがセマンティック・インスタンス識別の一般化を著しく損なうことを最初に証明する。
この理論に触発されて、コントラスト学習のための新しい自己ラベル改善手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T14:24:52Z) - All Labels Are Not Created Equal: Enhancing Semi-supervision via Label
Grouping and Co-training [32.45488147013166]
Pseudo-labelingは、半教師付き学習(SSL)の鍵となるコンポーネントである
本論文では,ラベルセマンティクスとコトレーニングを活用した問題解決手法であるSemCoを提案する。
提案手法は,1000個のラベル付きサンプルを持つミニイメージネットデータセットにおける5.6%の精度向上を含む,様々なsslタスクにおいて最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-04-12T07:33:16Z) - Exploiting Context for Robustness to Label Noise in Active Learning [47.341705184013804]
本稿では,どのラベルが間違っているのかをシステムがどのように識別するか,ラベルノイズの負の影響を最小限に抑えるために,マルチクラスアクティブラーニングシステムをどのように適用できるか,といった課題に対処する。
我々は、これらの関係を符号化し、ノイズラベルが利用できる場合にグラフ上の新しい信念を得るために、ラベルなしデータのグラフィカルな表現を構築した。
これはシーン分類、アクティビティ分類、文書分類の3つの異なる応用で実証されている。
論文 参考訳(メタデータ) (2020-10-18T18:59:44Z) - Class-Similarity Based Label Smoothing for Confidence Calibration [2.055949720959582]
信頼性校正を改善するため,新しいラベルスムーシング方式を提案する。
異なるクラスは固有の類似性が異なるため、より類似したクラスは最終的な出力においてより近い確率値をもたらす。
これは、ラベル値が参照クラスと類似性に基づいている新しいスムーズなラベルの開発を動機付けている。
論文 参考訳(メタデータ) (2020-06-24T20:26:22Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z) - Multi-Class Classification from Noisy-Similarity-Labeled Data [98.13491369929798]
雑音に類似したラベル付きデータのみから学習する方法を提案する。
ノイズ遷移行列を用いて、クリーンデータとノイズデータの間にクラス後確率をブリッジする。
雑音のないクラスラベルをインスタンスに割り当てる新しい学習システムを構築した。
論文 参考訳(メタデータ) (2020-02-16T05:10:21Z) - Automatically Discovering and Learning New Visual Categories with
Ranking Statistics [145.89790963544314]
我々は,他のクラスをラベル付けした画像コレクションにおいて,新しいクラスを発見する問題に対処する。
汎用クラスタリングモデルを学び、後者を用いて、非競合データ中の新しいクラスを識別する。
我々は,標準分類ベンチマークに対するアプローチと,新しいカテゴリー発見法の性能を,有意なマージンで評価した。
論文 参考訳(メタデータ) (2020-02-13T18:53:32Z) - Rethinking Class Relations: Absolute-relative Supervised and
Unsupervised Few-shot Learning [157.62595449130973]
本稿では,現在の数ショット学習法における単純化型クラスモデリングの基本的問題について検討する。
本稿では,ラベル情報をフル活用して画像表現を洗練するための,絶対相対学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-01-12T12:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。