論文の概要: One Line To Rule Them All: Generating LO-Shot Soft-Label Prototypes
- arxiv url: http://arxiv.org/abs/2102.07834v1
- Date: Mon, 15 Feb 2021 20:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:17:54.204470
- Title: One Line To Rule Them All: Generating LO-Shot Soft-Label Prototypes
- Title(参考訳): すべてを支配する1行:lo-shot soft-labelプロトタイプの生成
- Authors: Ilia Sucholutsky, Nam-Hwui Kim, Ryan P. Browne, Matthias Schonlau
- Abstract要約: プロトタイプ生成メソッドは、トレーニングデータセットを正確に表現する小さな合成観測セットを作成することを目指している。
ソフトラベルをプロトタイプに割り当てることで、小さなプロトタイプセットが元のトレーニングデータセットを正確に表現できるようになります。
データ内のクラス数よりもプロトタイプが少ない場合でも、表現精度を維持したソフトラベルラインを生成するための新しいモジュラー方式を提案します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasingly large datasets are rapidly driving up the computational costs of
machine learning. Prototype generation methods aim to create a small set of
synthetic observations that accurately represent a training dataset but greatly
reduce the computational cost of learning from it. Assigning soft labels to
prototypes can allow increasingly small sets of prototypes to accurately
represent the original training dataset. Although foundational work on `less
than one'-shot learning has proven the theoretical plausibility of learning
with fewer than one observation per class, developing practical algorithms for
generating such prototypes remains an unexplored territory. We propose a novel,
modular method for generating soft-label prototypical lines that still
maintains representational accuracy even when there are fewer prototypes than
the number of classes in the data. In addition, we propose the Hierarchical
Soft-Label Prototype k-Nearest Neighbor classification algorithm based on these
prototypical lines. We show that our method maintains high classification
accuracy while greatly reducing the number of prototypes required to represent
a dataset, even when working with severely imbalanced and difficult data. Our
code is available at https://github.com/ilia10000/SLkNN.
- Abstract(参考訳): ますます大きなデータセットが、機械学習の計算コストを急速に押し上げている。
プロトタイプ生成メソッドは、トレーニングデータセットを正確に表現するが、そこから学ぶ計算コストを大幅に削減する、小さな合成観測セットを作成することを目指している。
ソフトラベルをプロトタイプに割り当てることで、小さなプロトタイプセットが元のトレーニングデータセットを正確に表現できるようになります。
ショットラーニングの基礎的な研究は、クラスごとに1回未満の観察で学習の理論的可能性を証明するが、そのようなプロトタイプを生成するための実用的なアルゴリズムの開発は未知の領域のままである。
本論文では,データ内のクラス数よりもプロトタイプが少ない場合でも,表現精度を維持したソフトラベル原形線生成のモジュール化手法を提案する。
また,これらの原型線に基づく階層型ソフトラベルk-nearest近傍分類アルゴリズムを提案する。
本手法は,高度に不均衡で難しいデータを扱う場合でも,データセット表現に必要なプロトタイプ数を大幅に削減しながら,高い分類精度を維持していることを示す。
私たちのコードはhttps://github.com/ilia10000/SLkNNで入手できます。
関連論文リスト
- Learning Prototype Classifiers for Long-Tailed Recognition [18.36167187657728]
学習プロトタイプの分類器は,長鎖認識におけるバイアス付きソフトマックス問題に対処することを示した。
本稿では,表現空間におけるプロトタイプからの距離を分類のためのロジットスコアとして利用して,プロトタイプを共同で学習することを提案する。
本分析は,プロトタイプ分類器で学習したプロトタイプが経験的セントロイドよりも分離されていることを示す。
論文 参考訳(メタデータ) (2023-02-01T15:02:58Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Prototype Memory for Large-scale Face Representation Learning [0.5524804393257919]
softmaxベースのアプローチは、数百万人のデータセットには適していない。
プロトタイプメモリと呼ばれる新しい顔表現学習モデルを提案する。
人気の顔認識ベンチマークに関する広範な実験により,提案モデルの有効性を実証した。
論文 参考訳(メタデータ) (2021-05-05T15:08:34Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Optimal 1-NN Prototypes for Pathological Geometries [13.70633147306388]
トレーニングデータセットのサイズを減らすためにプロトタイプ手法を使用することで、分類の計算コストを大幅に削減することができる。
与えられたデータセットの最適なプロトタイプを見つけることは困難であり、代わりにアルゴリズムが使われる。
本稿では, ほぼ最適な分類器のプロトタイプをこの設定で発見するアルゴリズムを提案し, 理論的結果を実証的に検証する。
論文 参考訳(メタデータ) (2020-10-31T10:15:08Z) - Prototype Completion with Primitive Knowledge for Few-Shot Learning [20.449056536438658]
少ないショット学習は、新しいクラスのための分類器を少数の例で学習することを目的とした、難しい課題である。
事前学習に基づくメタラーニング手法は,特徴抽出器を事前学習し,最寄りのセントロイド型メタラーニングを通して微調整することで,この問題に効果的に対処する。
本稿では,完成度に基づくメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-10T16:09:34Z) - AutoSimulate: (Quickly) Learning Synthetic Data Generation [70.82315853981838]
目的の新たな微分可能近似に基づく最適な合成データ生成法を提案する。
提案手法は,学習データ生成の高速化(最大50Times$)と,実世界のテストデータセットの精度向上(+8.7%$)を実現している。
論文 参考訳(メタデータ) (2020-08-16T11:36:11Z) - Learning Sparse Prototypes for Text Generation [120.38555855991562]
プロトタイプ駆動のテキスト生成は、トレーニングコーパス全体の保存とインデックスを必要とするため、テスト時に非効率である。
本稿では,言語モデリング性能を向上するスパースなプロトタイプサポートセットを自動的に学習する新しい生成モデルを提案する。
実験では,1000倍のメモリ削減を実現しつつ,従来のプロトタイプ駆動型言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2020-06-29T19:41:26Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。