論文の概要: A Gating Model for Bias Calibration in Generalized Zero-shot Learning
- arxiv url: http://arxiv.org/abs/2203.04195v1
- Date: Tue, 8 Mar 2022 16:41:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 13:45:57.513396
- Title: A Gating Model for Bias Calibration in Generalized Zero-shot Learning
- Title(参考訳): 一般ゼロショット学習におけるバイアス校正のためのゲーティングモデル
- Authors: Gukyeong Kwon, Ghassan AlRegib
- Abstract要約: 汎用ゼロショット学習(GZSL)は,補助情報のみを用いることで,見つからないクラスデータに一般化できるモデルを訓練することを目的とする。
GZSLの主な課題の1つは、トレーニング中に利用可能なクラスデータのみに過度に適合することに起因する、見かけたクラスに対するバイアス付きモデル予測である。
GZSLのための2ストリームオートエンコーダに基づくゲーティングモデルを提案する。
- 参考スコア(独自算出の注目度): 18.32369721322249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalized zero-shot learning (GZSL) aims at training a model that can
generalize to unseen class data by only using auxiliary information. One of the
main challenges in GZSL is a biased model prediction toward seen classes caused
by overfitting on only available seen class data during training. To overcome
this issue, we propose a two-stream autoencoder-based gating model for GZSL.
Our gating model predicts whether the query data is from seen classes or unseen
classes, and utilizes separate seen and unseen experts to predict the class
independently from each other. This framework avoids comparing the biased
prediction scores for seen classes with the prediction scores for unseen
classes. In particular, we measure the distance between visual and attribute
representations in the latent space and the cross-reconstruction space of the
autoencoder. These distances are utilized as complementary features to
characterize unseen classes at different levels of data abstraction. Also, the
two-stream autoencoder works as a unified framework for the gating model and
the unseen expert, which makes the proposed method computationally efficient.
We validate our proposed method in four benchmark image recognition datasets.
In comparison with other state-of-the-art methods, we achieve the best harmonic
mean accuracy in SUN and AWA2, and the second best in CUB and AWA1.
Furthermore, our base model requires at least 20% less number of model
parameters than state-of-the-art methods relying on generative models.
- Abstract(参考訳): 汎用ゼロショット学習(GZSL)は,補助情報のみを用いてクラスデータに一般化可能なモデルを訓練することを目的としている。
GZSLの主な課題の1つは、トレーニング中に利用可能なクラスデータのみに過度に適合することに起因する、見かけたクラスに対するバイアス付きモデル予測である。
本稿では,GZSLのための2ストリームオートエンコーダを用いたゲーティングモデルを提案する。
このゲーティングモデルでは,クエリデータが既見のクラスか未見のクラスかを予測するとともに,別途見当たっている専門家と未見のエキスパートを使用して,互いに独立してクラスを予測する。
このフレームワークは、見知らぬクラスの予測スコアと見つからないクラスの予測スコアを比較することを避ける。
特に、潜在空間における視覚的表現と属性表現の間の距離とオートエンコーダのクロスコンストラクション空間を測定する。
これらの距離は、異なるレベルのデータ抽象化で見えないクラスを特徴付ける補完的特徴として利用されます。
また、2-stream autoencoderはゲーティングモデルとunseenエキスパートの統一フレームワークとして動作し,提案手法の計算効率が向上する。
提案手法を4つのベンチマーク画像認識データセットで検証する。
他の最先端手法と比較して、SUNとAWA2で最高の高調波平均精度が得られ、CUBとAWA1では2番目に良い。
さらに、ベースモデルでは生成モデルに依存する最先端のメソッドよりも少なくとも20%少ないモデルパラメータを必要とする。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Evaluating Model Bias Requires Characterizing its Mistakes [19.777130236160712]
スキューサイズ(SkewSize)は、モデルの予測における誤りからバイアスを捉える、原則付きフレキシブルなメトリクスである。
マルチクラスの設定で使用したり、生成モデルのオープンな語彙設定に一般化することができる。
合成データで訓練された標準的な視覚モデル、ImageNetで訓練された視覚モデル、BLIP-2ファミリーの大規模視覚言語モデルなどである。
論文 参考訳(メタデータ) (2024-07-15T11:46:21Z) - Bridging the Projection Gap: Overcoming Projection Bias Through Parameterized Distance Learning [9.26015904497319]
Generalized Zero-shot Learning (GZSL) は、見知らぬクラスと見えないクラスの両方からのサンプルを、学習用のクラスサンプルのみを使用して認識することを目的としている。
GZSL法は、投射関数が観測クラスから学習されるため、推論中に観測クラスに偏りが生じる傾向にある。
我々はこの予測バイアスに,ロバスト推論のためのパラメータ化されたマハラノビス距離測定値の学習を提案して対処する。
論文 参考訳(メタデータ) (2023-09-04T06:41:29Z) - Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training [92.52892510093037]
我々は、Universal Semi-supervised Model Adaptation (USMA)と呼ばれる現実的で挑戦的なドメイン適応問題を導入する。
本稿では,2つのモデル間の予測整合性を規則化する協調的整合性トレーニングフレームワークを提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-07T08:19:40Z) - Enabling Calibration In The Zero-Shot Inference of Large Vision-Language
Models [58.720142291102135]
プロンプト、データセット、アーキテクチャといった関連する変数のキャリブレーションを測定し、CLIPによるゼロショット推論が誤校正されていることを見つけます。
学習した1つの温度は、推論データセットにまたがって特定のCLIPモデルごとに一般化され、選択が促される。
論文 参考訳(メタデータ) (2023-03-11T17:14:04Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Prototypical Model with Novel Information-theoretic Loss Function for
Generalized Zero Shot Learning [3.870962269034544]
一般ゼロショット学習(GZSL)は、ディープラーニングの技術的課題である。
本稿では,知識伝達と意味的関係の定量化について,情報理論の観点から考察する。
決定論的GZSLモデルのための情報理論損失関数を3つ提案する。
論文 参考訳(メタデータ) (2021-12-06T16:01:46Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Generalized One-Class Learning Using Pairs of Complementary Classifiers [41.64645294104883]
1クラス学習は、単一のクラスでのみアノテーションが利用できるデータにモデルを適合させる古典的な問題である。
本稿では,一級学習の新たな目的を探求し,これを一般化一級識別サブスペース(GODS)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-24T18:52:05Z) - Improving Label Quality by Jointly Modeling Items and Annotators [68.8204255655161]
雑音アノテータから基底真理ラベルを学習するための完全ベイズ的枠組みを提案する。
我々のフレームワークは、ラベル分布上の生成的ベイズソフトクラスタリングモデルを古典的なDavidとSkeneのジョイントアノテータデータモデルに分解することでスケーラビリティを保証する。
論文 参考訳(メタデータ) (2021-06-20T02:15:20Z) - PSD2 Explainable AI Model for Credit Scoring [0.0]
本研究の目的は、信用リスクモデルの予測精度を向上させるための高度な分析手法の開発と試験である。
このプロジェクトは、銀行関連のデータベースに説明可能な機械学習モデルを適用することに焦点を当てている。
論文 参考訳(メタデータ) (2020-11-20T12:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。