論文の概要: On the Importance of Distractors for Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2109.09883v1
- Date: Mon, 20 Sep 2021 23:35:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:20:37.604837
- Title: On the Importance of Distractors for Few-Shot Classification
- Title(参考訳): ファウショット分類におけるディトラクタの重要性について
- Authors: Rajshekhar Das, Yu-Xiong Wang, Jos\'eM.F. Moura
- Abstract要約: 少数(典型的には1対5)のラベル付き例から学習することで、新規タスクのカテゴリを分類することを目的とする。
少数ショット分類への効果的なアプローチは、大規模なサンプルベースドメインで訓練された事前モデルを含み、その後、新しい少数ショットタスクを微調整して一般化可能な表現を生成する。
本稿では,非競合学習に基づく新たな微調整手法を提案する。
- 参考スコア(独自算出の注目度): 13.486661391097387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot classification aims at classifying categories of a novel task by
learning from just a few (typically, 1 to 5) labelled examples. An effective
approach to few-shot classification involves a prior model trained on a
large-sample base domain, which is then finetuned over the novel few-shot task
to yield generalizable representations. However, task-specific finetuning is
prone to overfitting due to the lack of enough training examples. To alleviate
this issue, we propose a new finetuning approach based on contrastive learning
that reuses unlabelled examples from the base domain in the form of
distractors. Unlike the nature of unlabelled data used in prior works,
distractors belong to classes that do not overlap with the novel categories. We
demonstrate for the first time that inclusion of such distractors can
significantly boost few-shot generalization. Our technical novelty includes a
stochastic pairing of examples sharing the same category in the few-shot task
and a weighting term that controls the relative influence of task-specific
negatives and distractors. An important aspect of our finetuning objective is
that it is agnostic to distractor labels and hence applicable to various base
domain settings. Compared to state-of-the-art approaches, our method shows
accuracy gains of up to $12\%$ in cross-domain and up to $5\%$ in unsupervised
prior-learning settings.
- Abstract(参考訳): 少数(典型的には1対5)のラベル付き例から学習することで、新規タスクのカテゴリを分類することを目的とする。
少数ショット分類への効果的なアプローチは、大きなサンプルベースドメインでトレーニングされた事前モデルで、新しい少数ショットタスク上で微調整され、一般化可能な表現が得られる。
しかし、十分なトレーニング例がないため、タスク固有の微調整は過剰に働きがちである。
この問題を軽減するために,基本領域から乱れのない例をインタプリタの形で再利用する,コントラスト学習に基づく新たな微調整手法を提案する。
以前の作品で使われている非競合データとは異なり、トラクタは新しいカテゴリーと重複しないクラスに属している。
このような注意散らしを組み込むことで、数発の一般化を著しく促進できることを示すのが初めてである。
我々の技術的新奇性には、数発のタスクで同じカテゴリを共有する確率論的ペアリングと、タスク固有のネガティブとイントラクタの相対的影響を制御する重み付け項が含まれる。
ファインタニングの目的の重要な側面は、ラベルを混乱させることなく、様々なベースドメイン設定に適用できることです。
最先端のアプローチと比較すると,クロスドメインでは最大12\%$,教師なし事前学習では最大5\%$の精度向上を示す。
関連論文リスト
- Liberating Seen Classes: Boosting Few-Shot and Zero-Shot Text Classification via Anchor Generation and Classification Reframing [38.84431954053434]
短いショットとゼロショットのテキスト分類は、ラベル付きサンプルやラベル付きサンプルが全くない新しいクラスからのサンプルを認識することを目的としている。
少数ショットとゼロショットのテキスト分類のためのシンプルで効果的な戦略を提案する。
論文 参考訳(メタデータ) (2024-05-06T15:38:32Z) - Capturing Perspectives of Crowdsourced Annotators in Subjective Learning Tasks [9.110872603799839]
監督された分類は、人間によって注釈付けされたデータセットに大きく依存する。
毒性分類などの主観的なタスクでは、これらのアノテーションはラッカー間での合意が低くなることが多い。
本研究では、主観的分類タスクのためのtextbfAnnotator Awares for Texts (AART) を提案する。
論文 参考訳(メタデータ) (2023-11-16T10:18:32Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Instance-Level Relative Saliency Ranking with Graph Reasoning [126.09138829920627]
そこで本研究では,有意な事例を分割し,相対的有意な有意なランク順序を推定するための統一モデルを提案する。
また、サラレンシーランキングブランチを効果的にトレーニングするために、新しい損失関数も提案されている。
実験の結果,提案手法は従来の手法よりも有効であることがわかった。
論文 参考訳(メタデータ) (2021-07-08T13:10:42Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Shot in the Dark: Few-Shot Learning with No Base-Class Labels [32.96824710484196]
市販の自己教師型学習は,MiniImageNet上での5ショット精度において,トランスダクティブな数ショット法を3.9%向上させることを示した。
このことは、数発の学習において、自己監督を通じて学んだ機能の役割をより慎重に調べる動機となります。
論文 参考訳(メタデータ) (2020-10-06T02:05:27Z) - Cooperative Bi-path Metric for Few-shot Learning [50.98891758059389]
数発の分類問題の調査に2つの貢献をしている。
本稿では,従来の教師あり学習法において,ベースクラスで訓練されたシンプルで効果的なベースラインについて報告する。
本稿では, 基礎クラスと新しいクラス間の相関を利用して, 精度の向上を図る, 分類のための協調的二経路計量を提案する。
論文 参考訳(メタデータ) (2020-08-10T11:28:52Z) - Towards Cross-Granularity Few-Shot Learning: Coarse-to-Fine
Pseudo-Labeling with Visual-Semantic Meta-Embedding [13.063136901934865]
少ないショットラーニングは、テスト時に少数のサンプルしか持たない、新しいカテゴリに迅速に適応することを目的としている。
本稿では,より困難なシナリオ,すなわちクロスグラニュラリティ・グラニュラリティ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラ
画像埋め込みの類似性に応じて,各粗いクラスを擬似微細クラスにグリーディクラスタリングすることで,詳細なデータ分布を近似する。
論文 参考訳(メタデータ) (2020-07-11T03:44:21Z) - Any-Shot Object Detection [81.88153407655334]
「アニーショット検出」とは、全く見えず、数発のカテゴリが推論中に同時に共起できる場所である。
我々は、ゼロショットと少数ショットの両方のオブジェクトクラスを同時に検出できる、統合された任意のショット検出モデルを提案する。
我々のフレームワークは、ゼロショット検出とFewショット検出タスクにのみ使用できる。
論文 参考訳(メタデータ) (2020-03-16T03:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。