論文の概要: Pseudo Shots: Few-Shot Learning with Auxiliary Data
- arxiv url: http://arxiv.org/abs/2012.07176v2
- Date: Sat, 16 Jan 2021 15:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 12:52:28.212381
- Title: Pseudo Shots: Few-Shot Learning with Auxiliary Data
- Title(参考訳): Pseudo Shots: 補助データによるFew-Shot Learning
- Authors: Reza Esfandiarpoor, Mohsen Hajabdollahi, Stephen H. Bach
- Abstract要約: 画像分類における補助データの効率的な選定と有効活用の課題に取り組みます。
これらの追加例が目的のタスクの例と同じ分布から生じると仮定しても精度は著しく向上しないことを示す。
また, 擬似ショットを組み込むことにより, 従来の複数ショット画像分類スコアよりも, 1ショットタスクの平均4.81ポイント, 5ショットタスクの平均0.31ポイントの精度が向上することを示した。
- 参考スコア(独自算出の注目度): 6.862925771672299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many practical few-shot learning problems, even though labeled examples
are scarce, there are abundant auxiliary data sets that potentially contain
useful information. We propose a framework to address the challenges of
efficiently selecting and effectively using auxiliary data in image
classification. Given an auxiliary dataset and a notion of semantic similarity
among classes, we automatically select pseudo shots, which are labeled examples
from other classes related to the target task. We show that naively assuming
that these additional examples come from the same distribution as the target
task examples does not significantly improve accuracy. Instead, we propose a
masking module that adjusts the features of auxiliary data to be more similar
to those of the target classes. We show that this masking module can improve
accuracy by up to 18 accuracy points, particularly when the auxiliary data is
semantically distant from the target task. We also show that incorporating
pseudo shots improves over the current state-of-the-art few-shot image
classification scores by an average of 4.81 percentage points of accuracy on
1-shot tasks and an average of 0.31 percentage points on 5-shot tasks.
- Abstract(参考訳): 多くの実用的な数発学習問題において、ラベル付き例は少ないが、有用な情報を含む可能性のある補助データセットが豊富に存在する。
画像分類における補助データの効率的な選択と有効利用の課題に対処する枠組みを提案する。
補助データセットとクラス間の意味的類似性の概念が与えられたら、ターゲットタスクに関連する他のクラスからラベル付けされた擬似ショットを自動的に選択します。
これらの追加例が対象のタスクの例と同じ分布から来ていると仮定しても,精度は著しく向上しない。
代わりに,補助データの特徴を,対象クラスのそれとよく似ているように調整するマスキングモジュールを提案する。
このマスキングモジュールは、特に補助データが目的タスクから意味的に離れている場合、最大18の精度ポイントで精度を向上できることを示す。
また, 擬似ショットを組み込むことにより, 従来の複数ショット画像分類スコアよりも, 1ショットタスクの平均4.81ポイント, 5ショットタスクの平均0.31ポイントの精度が向上することを示した。
関連論文リスト
- Few and Fewer: Learning Better from Few Examples Using Fewer Base
Classes [12.742052888217543]
ターゲットデータセットには少数の例しか含まれていないため、ファインチューニングは数ショットの学習には効果がない。
本稿では,より少ないベースクラスでのトレーニングにより,ターゲットデータセットのより良い特徴が得られるかどうかを検討する。
我々の知る限り、慎重に選択されたベースクラスのサブセットで微調整を行うことで、ほとんどショット学習を大幅に改善できる最初の実演である。
論文 参考訳(メタデータ) (2024-01-29T01:52:49Z) - Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information [100.03188187735624]
PLMとPVI(pointwise V-information)に基づく新しい手法を導入し,モデル学習におけるデータポイントの有用性を計測する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
論文 参考訳(メタデータ) (2023-02-10T07:37:49Z) - Disambiguation of One-Shot Visual Classification Tasks: A Simplex-Based
Approach [8.436437583394998]
本稿では,複数の物体の存在を検出するための戦略を提案する。
この戦略は、高次元空間における単純体の角を識別することに基づいている。
提案手法は,極端設定における精度をわずかながら統計的に向上させる能力を示す。
論文 参考訳(メタデータ) (2023-01-16T11:37:05Z) - Knowing What to Label for Few Shot Microscopy Image Cell Segmentation [15.510258960276083]
顕微鏡画像セルセグメンテーションでは、異なる種類の顕微鏡画像を含む、ソースデータに基づいてディープニューラルネットワークを訓練することが一般的である。
注釈付きトレーニング対象画像のランダムな選択は、効果的な微調整プロセスを可能にしないのではないか、と我々は主張する。
提案手法では, 新たなスコアリング機能を用いて, 意図しない対象画像の探索を行う。
論文 参考訳(メタデータ) (2022-11-18T14:03:49Z) - Patching open-vocabulary models by interpolating weights [85.12977566514984]
CLIPのようなオープン語彙モデルは、多くの画像分類タスクで高い精度を達成する。
そこでは,すでに性能が十分であるタスクの精度を低下させることなく,特定のタスクの精度を向上させることを目標とするモデルパッチについて検討する。
本研究は,開語彙モデルがスクラッチから再学習することなく高い精度を達成できる課題の集合を拡張することができることを示した。
論文 参考訳(メタデータ) (2022-08-10T23:47:43Z) - GDC- Generalized Distribution Calibration for Few-Shot Learning [5.076419064097734]
大規模なラベル付きデータセットを組み立てるのにかなりの時間と労力を要するため、機械学習において重要な問題となるショットラーニングはほとんどない。
ほとんどの少数ショット学習アルゴリズムは、2つの制限の1つに悩まされている。
そこで本研究では,全大クラスの重み付きランダム変数として分類する際,少数ショット分布を推定する一般サンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-04-11T16:22:53Z) - Budget-aware Few-shot Learning via Graph Convolutional Network [56.41899553037247]
本稿では,いくつかの例から新しい視覚概念を学習することを目的とした,数ショット学習の課題に取り組む。
数ショット分類における一般的な問題設定は、データラベルの取得においてランダムサンプリング戦略を前提としている。
そこで我々は,新しい対象カテゴリーの学習を目的とした,予算に配慮した数発の学習問題を新たに導入する。
論文 参考訳(メタデータ) (2022-01-07T02:46:35Z) - Finding Significant Features for Few-Shot Learning using Dimensionality
Reduction [0.0]
このモジュールは、計量学習法により与えられる類似度関数を、分類のためのより識別的な特徴を持つようにすることで、精度の向上を支援する。
提案手法は,MiniImageNetデータセットにおけるメトリック学習ベースラインの精度を約2%向上させる。
論文 参考訳(メタデータ) (2021-07-06T16:36:57Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z) - Are Fewer Labels Possible for Few-shot Learning? [81.89996465197392]
ごく限られたデータとラベルのため、わずかなショット学習は難しい。
近年のBiT (Big Transfer) 研究は、異なる領域における大規模ラベル付きデータセットの事前トレーニングによって、少数ショット学習が大きな恩恵を受けることを示した。
本稿では,ファインチューニングにおけるクラスタリングと固有サンプルの共進化を活かし,ショット学習の削減を図る。
論文 参考訳(メタデータ) (2020-12-10T18:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。