論文の概要: Class Distribution Shifts in Zero-Shot Learning: Learning Robust
Representations
- arxiv url: http://arxiv.org/abs/2311.18575v1
- Date: Thu, 30 Nov 2023 14:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 16:20:05.225424
- Title: Class Distribution Shifts in Zero-Shot Learning: Learning Robust
Representations
- Title(参考訳): ゼロショット学習におけるクラス分布シフト:ロバスト表現の学習
- Authors: Yuli Slavutsky and Yuval Benjamini
- Abstract要約: 本稿では,ゼロショット検証タスクにおけるクラス分布シフトに頑健なデータ表現を学習するアルゴリズムを提案する。
本稿では,階層的なデータサンプリングと分布外一般化技術を組み合わせることで,シミュレーションと実世界のデータセットの両方において,多様なクラス分布への一般化を向上することを示す。
- 参考スコア(独自算出の注目度): 4.605037293860087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distribution shifts between training and deployment data often affect the
performance of machine learning models. In this paper, we explore a setting
where a hidden variable induces a shift in the distribution of classes. These
distribution shifts are particularly challenging for zero-shot classifiers, as
they rely on representations learned from training classes, but are deployed on
new, unseen ones. We introduce an algorithm to learn data representations that
are robust to such class distribution shifts in zero-shot verification tasks.
We show that our approach, which combines hierarchical data sampling with
out-of-distribution generalization techniques, improves generalization to
diverse class distributions in both simulations and real-world datasets.
- Abstract(参考訳): トレーニングとデプロイメントデータの分散シフトは、マシンラーニングモデルのパフォーマンスに影響することが多い。
本稿では,隠れた変数がクラス分布のシフトを引き起こすような設定について検討する。
これらの分散シフトは、訓練クラスから学んだ表現に依存するが、新しい目に見えないものにデプロイされるため、ゼロショット分類器にとって特に難しい。
本稿では,ゼロショット検証タスクにおけるクラス分布シフトに頑健なデータ表現の学習アルゴリズムを提案する。
本研究では,階層的データサンプリングと分散一般化手法を組み合わせることにより,シミュレーションと実世界のデータセットの両方における多様なクラス分布への一般化を改善できることを示す。
関連論文リスト
- SEER-ZSL: Semantic Encoder-Enhanced Representations for Generalized
Zero-Shot Learning [0.7420433640907689]
一般化ゼロショット学習(GZSL)は、見知らぬクラスから知識を伝達することで、目に見えないクラスを認識する。
本稿では,一般化ギャップに対処するための二重戦略を提案する。
論文 参考訳(メタデータ) (2023-12-20T15:18:51Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - PatchMix Augmentation to Identify Causal Features in Few-shot Learning [55.64873998196191]
少ないショット学習は、十分なカテゴリをラベル付けしたデータに基づいて学習した知識を、少ない既知の情報を持つ新しいカテゴリに転送することを目的としている。
我々はPatchMixと呼ばれる新しいデータ拡張戦略を提案し、この急激な依存関係を壊すことができる。
このような拡張メカニズムが,既存のメカニズムと異なり,因果的特徴を識別可能であることを示す。
論文 参考訳(メタデータ) (2022-11-29T08:41:29Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Analyzing Overfitting under Class Imbalance in Neural Networks for Image
Segmentation [19.259574003403998]
画像分割では、ニューラルネットワークは小さな構造物の前景サンプルに過剰に適合する可能性がある。
本研究では,ネットワークの動作を検査することにより,クラス不均衡下でのオーバーフィッティング問題に対する新たな知見を提供する。
論文 参考訳(メタデータ) (2021-02-20T14:57:58Z) - Semi-Supervised Disentanglement of Class-Related and Class-Independent
Factors in VAE [4.533408938245526]
本稿では,データ変動のクラス関連要因とクラス非依存要因を両立できるフレームワークを提案する。
このフレームワークは,データからクラス関連因子を抽出するプロセスを改善するために,潜在空間における注意機構を利用する。
実験の結果,我々のフレームワークは,クラス関連要因とクラス非依存要因を分離し,解釈可能な特徴を学習していることがわかった。
論文 参考訳(メタデータ) (2021-02-01T15:05:24Z) - WILDS: A Benchmark of in-the-Wild Distribution Shifts [157.53410583509924]
分散シフトは、ワイルドにデプロイされた機械学習システムの精度を実質的に低下させることができる。
分散シフトの多様な範囲を反映した8つのベンチマークデータセットのキュレーションコレクションであるWILDSを紹介します。
本研究は, 標準訓練の結果, 分布性能よりも, 分布域外性能が有意に低下することを示す。
論文 参考訳(メタデータ) (2020-12-14T11:14:56Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。