論文の概要: Rebalanced Zero-shot Learning
- arxiv url: http://arxiv.org/abs/2210.07031v1
- Date: Thu, 13 Oct 2022 13:43:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 16:36:08.339918
- Title: Rebalanced Zero-shot Learning
- Title(参考訳): ゼロショット学習の再バランス
- Authors: Zihan Ye, Guanyu Yang, Xiaobo Jin, Youfa Liu, Kaizhu Huang
- Abstract要約: Zero-shot Learning (ZSL) は、トレーニング中にサンプルがゼロの未確認クラスを特定することを目的としている。
ZSLに不均衡学習フレームワークを導入する。
次に、Re- Balanced Mean-Squared Error (ReMSE)と呼ばれる再重み付き損失を提案する。
- 参考スコア(独自算出の注目度): 18.52913434532522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot learning (ZSL) aims to identify unseen classes with zero samples
during training. Broadly speaking, present ZSL methods usually adopt
class-level semantic labels and compare them with instance-level semantic
predictions to infer unseen classes. However, we find that such existing models
mostly produce imbalanced semantic predictions, i.e. these models could perform
precisely for some semantics, but may not for others. To address the drawback,
we aim to introduce an imbalanced learning framework into ZSL. However, we find
that imbalanced ZSL has two unique challenges: (1) Its imbalanced predictions
are highly correlated with the value of semantic labels rather than the number
of samples as typically considered in the traditional imbalanced learning; (2)
Different semantics follow quite different error distributions between classes.
To mitigate these issues, we first formalize ZSL as an imbalanced regression
problem which offers theoretical foundations to interpret how semantic labels
lead to imbalanced semantic predictions. We then propose a re-weighted loss
termed Re-balanced Mean-Squared Error (ReMSE), which tracks the mean and
variance of error distributions, thus ensuring rebalanced learning across
classes. As a major contribution, we conduct a series of analyses showing that
ReMSE is theoretically well established. Extensive experiments demonstrate that
the proposed method effectively alleviates the imbalance in semantic prediction
and outperforms many state-of-the-art ZSL methods.
- Abstract(参考訳): Zero-shot Learning (ZSL)は、トレーニング中にサンプルがゼロの未確認クラスを特定することを目的としている。
一般的に言えば、現在のzslメソッドは通常クラスレベルのセマンティクスラベルを採用し、インスタンスレベルのセマンティクス予測と比較して、見当たらないクラスを推測する。
しかし、これらの既存モデルは、主に不均衡なセマンティック予測を生成すること、すなわち、これらのモデルは、いくつかのセマンティクスに対して正確に機能するが、他のセマンティクスでは機能しない可能性があることを発見した。
この欠点に対処するために、ZSLに不均衡学習フレームワークを導入することを目的とする。
しかし,不均衡なZSLには,(1)不均衡な予測と従来の不均衡な学習におけるサンプル数ではなく意味的ラベルの値との相関が強く,(2)異なる意味論はクラス間のエラー分布に大きく従う。
これらの問題を緩和するために、まずZSLを不均衡回帰問題として定式化し、セマンティックラベルが不均衡なセマンティック予測にどのように寄与するかを理論的基礎として解釈する。
そこで本研究では,誤差分布の平均とばらつきを追跡し,クラス間での再バランス学習を保証する再重み付け型平均二乗誤差(remse)を提案する。
主な貢献として、理論上ReMSEが確立されていることを示す一連の分析を行う。
広範な実験により,提案手法は意味予測の不均衡を効果的に緩和し,最先端zsl法を上回った。
関連論文リスト
- Leave No Stone Unturned: Mine Extra Knowledge for Imbalanced Facial
Expression Recognition [39.08466869516571]
顔の表情データは大きな不均衡を特徴とし、ほとんどの収集されたデータは幸福あるいは中立な表現を示し、恐怖や嫌悪の事例は少ない。
この不均衡は、表情認識(FER)モデルに課題をもたらし、様々な人間の感情状態を完全に理解する能力を妨げる。
既存のFER法は通常、高度に不均衡なテストセットに対して全体的な精度を報告するが、全ての式クラスの平均精度では低い性能を示す。
論文 参考訳(メタデータ) (2023-10-30T15:26:26Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z) - A Probabilistic Model for Discriminative and Neuro-Symbolic
Semi-Supervised Learning [6.789370732159177]
本稿では、その古典的な生成過程を反映した識別的SSLの確率モデルを提案する。
我々は、よく知られたSSLメソッドを事前の近似として解釈でき、改善可能であることを示す。
我々は識別モデルをニューロシンボリックSSLに拡張し、上記のルールを直接関連付けることによって、ラベルの特徴が論理規則を満たすようにした。
論文 参考訳(メタデータ) (2020-06-10T15:30:54Z) - Class-Imbalanced Semi-Supervised Learning [33.94685366079589]
Semi-Supervised Learning (SSL)はラベル付けの難しさを克服し、ラベルなしデータを完全に活用することで大きな成功を収めている。
本稿では,クラス不均衡データを用いた半教師あり学習(CISSL)の課題を紹介する。
本手法はCISSL環境における従来の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-02-17T07:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。