論文の概要: Learning from One and Only One Shot
- arxiv url: http://arxiv.org/abs/2201.08815v1
- Date: Fri, 14 Jan 2022 08:11:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-30 11:36:12.422609
- Title: Learning from One and Only One Shot
- Title(参考訳): 1発と1発のショットから学ぶ
- Authors: Haizi Yu, Igor Mineyev, Lav R. Varshney, James A. Evans
- Abstract要約: ナチビズムにインスパイアされた私たちは、視覚的なタスクにおいて、人間固有の基本的な先行をモデル化する。
1クラスにつき1~10例のみを用いて人間レベルの文字認識を実現する。
我々のモデルは教師なし学習も可能であり、非ユークリッド的、一般的な外観的類似性空間をk-meansスタイルで学習することで、人間の直感的古型を生成することができる。
- 参考スコア(独自算出の注目度): 19.508678969335882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans can generalize from only a few examples and from little pre-training
on similar tasks. Yet, machine learning (ML) typically requires large data to
learn or pre-learn to transfer. Inspired by nativism, we directly model basic
human-innate priors in abstract visual tasks e.g., character/doodle
recognition. This yields a white-box model that learns general-appearance
similarity -- how any two images look in general -- by mimicking how humans
naturally "distort" an object at first sight. Using simply the nearest-neighbor
classifier on this similarity space, we achieve human-level character
recognition using only 1--10 examples per class and nothing else (no
pre-training). This differs from few-shot learning (FSL) using significant
pre-training. On standard benchmarks MNIST/EMNIST and the Omniglot challenge,
we outperform both neural-network-based and classical ML in the "tiny-data"
regime, including FSL pre-trained on large data. Our model enables unsupervised
learning too: by learning the non-Euclidean, general-appearance similarity
space in a k-means style, we can generate human-intuitive archetypes as cluster
``centroids''.
- Abstract(参考訳): 人間はごく少数の例から、類似したタスクの事前学習から一般化することができる。
しかし、機械学習(ML)は通常、学習するために大きなデータを必要とする。
ナティビズムに触発されて,文字認識や人形認識などの抽象視覚タスクにおいて,人間固有のプライオリティを直接モデル化する。
これによりホワイトボックスのモデルでは、人間が自然に物体を「歪め」る様子を模倣することで、2つのイメージが一般にどのように見えるかという一般的な外観の類似性を学ぶことができる。
この類似性空間上の最寄りの分類器を用いて、クラスごとの1~10例のみを用いて人間レベルの文字認識を行う(事前学習なし)。
これは、重要な事前学習を使用する少数ショット学習(FSL)とは異なる。
標準ベンチマークのMNIST/EMNISTとOmniglotチャレンジでは、大規模データで事前トレーニングされたFSLを含む、ニューラルネットワークベースのMLと古典的なMLの両方よりもパフォーマンスが優れています。
このモデルは教師なし学習も可能にする: k-meansスタイルで非ユークリッド的で一般的な類似性空間を学習することで、人間直観的なアーチタイプをクラスタ ``centroids'' として生成することができる。
関連論文リスト
- Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Metric Learning for Projections Bias of Generalized Zero-shot Learning [7.020870744580684]
汎用ゼロショット学習モデル (GZSL) は、見知らぬクラスのサンプルのみをトレーニングデータとして認識することを目的としている。
最適化されたマハラノビス距離表現の学習を支援するために、2つの枝を持つ新たな損失関数を提案する。
論文 参考訳(メタデータ) (2023-09-04T06:41:29Z) - Quantifying Human Bias and Knowledge to guide ML models during Training [0.0]
トレーニングプロセスに人間を含めることで、歪んだデータセットを扱うための実験的なアプローチを導入する。
我々は、データセットの特徴の重要性をランク付けし、ランクアグリゲーションを通じて、モデルの初期重みバイアスを決定するよう人間に求める。
我々は、集団的人間の偏見によって、機械学習モデルがバイアス標本の代わりに真の人口についての洞察を学習できることを示した。
論文 参考訳(メタデータ) (2022-11-19T20:49:07Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Learning Primitive-aware Discriminative Representations for Few-shot
Learning [28.17404445820028]
少ないショットラーニングは、いくつかのラベル付き例で、新しいクラスを容易に認識できる分類器を学習することを目的としている。
プリミティブ・マイニング・アンド・リ共振ネットワーク(PMRN)を提案し,プリミティブ・アウェアな表現を学習する。
提案手法は,6つの標準ベンチマークの最先端結果を実現する。
論文 参考訳(メタデータ) (2022-08-20T16:22:22Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Aligning Visual Prototypes with BERT Embeddings for Few-Shot Learning [48.583388368897126]
ほとんどショット学習は、これまで目に見えないイメージのカテゴリを認識するための学習である。
画像クラスの名称を考慮に入れた手法を提案する。
論文 参考訳(メタデータ) (2021-05-21T08:08:28Z) - Isometric Propagation Network for Generalized Zero-shot Learning [72.02404519815663]
一般的な戦略は、クラス属性の意味空間と、見たクラスとそのデータに基づいて画像の視覚空間とのマッピングを学ぶことである。
本稿では,各空間内のクラス間の関係を強化し,2つの空間におけるクラス依存性を整合させるIsometric propagation Network (IPN)を提案する。
IPNは3つの人気のあるゼロショット学習ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-02-03T12:45:38Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Reinforcement Based Learning on Classification Task Could Yield Better
Generalization and Adversarial Accuracy [0.0]
画像分類タスクを用いて深層学習モデルを訓練する新しい手法を提案する。
強化学習におけるバニラポリシー勾配法に類似した報酬に基づく最適化関数を用いる。
論文 参考訳(メタデータ) (2020-12-08T11:03:17Z) - A Multi-class Approach -- Building a Visual Classifier based on Textual
Descriptions using Zero-Shot Learning [0.34265828682659694]
機械学習の主なハードル、すなわちデータの不足と分類モデルの制約付き予測を克服する。
特定のクラスに対して学習するのではなく、ラベル付き画像をテキスト記述にマッピングすることで分類器を訓練する。
論文 参考訳(メタデータ) (2020-11-18T12:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。