論文の概要: BaseTransformers: Attention over base data-points for One Shot Learning
- arxiv url: http://arxiv.org/abs/2210.02476v1
- Date: Wed, 5 Oct 2022 18:00:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 15:15:57.440332
- Title: BaseTransformers: Attention over base data-points for One Shot Learning
- Title(参考訳): basetransformers: ワンショット学習のためのベースデータポイントに対する注意
- Authors: Mayug Maniparambil, Kevin McGuinness, Noel O'Connor
- Abstract要約: ほとんどショット分類は、カテゴリごとに限られたサンプルのみを使用して、新しいカテゴリを認識することを目的としていない。
現在の殆どのショットメソッドは、ラベル付き例に富んだベースデータセットを使用して、新しいクラスのサポートインスタンスの表現を得るために使用されるエンコーダをトレーニングしている。
本稿では,各サポートインスタンスに最も近いベースデータセットの特徴表現を用いてメタテスト時の表現を改善することを提案する。
- 参考スコア(独自算出の注目度): 6.708284461619745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few shot classification aims to learn to recognize novel categories using
only limited samples per category. Most current few shot methods use a base
dataset rich in labeled examples to train an encoder that is used for obtaining
representations of support instances for novel classes. Since the test
instances are from a distribution different to the base distribution, their
feature representations are of poor quality, degrading performance. In this
paper we propose to make use of the well-trained feature representations of the
base dataset that are closest to each support instance to improve its
representation during meta-test time. To this end, we propose BaseTransformers,
that attends to the most relevant regions of the base dataset feature space and
improves support instance representations. Experiments on three benchmark data
sets show that our method works well for several backbones and achieves
state-of-the-art results in the inductive one shot setting. Code is available
at github.com/mayug/BaseTransformers
- Abstract(参考訳): 少数のショット分類は、カテゴリごとに限られたサンプルのみを使用して、新しいカテゴリを認識することを目的としている。
現在の殆どのショットメソッドは、ラベル付き例に富んだベースデータセットを使用して、新しいクラスのサポートインスタンスの表現を得るために使用されるエンコーダをトレーニングしている。
テストインスタンスはベースディストリビューションとは異なるディストリビューションであるため、その特徴表現は品質が悪く、パフォーマンスが低下する。
本稿では、各サポートインスタンスに最も近いベースデータセットのよく訓練された特徴表現を用いて、メタテスト時にその表現を改善することを提案する。
この目的のために、ベースデータセットの特徴空間の最も関連する領域に準拠し、サポートインスタンス表現を改善するベース変換器を提案する。
3つのベンチマークデータセットの実験から,本手法はいくつかのバックボーンに対して有効であり,インダクティブ・ワンショット・セッティングにおける最先端の結果が得られた。
コードはgithub.com/mayug/BaseTransformersで入手できる
関連論文リスト
- Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Few and Fewer: Learning Better from Few Examples Using Fewer Base
Classes [12.742052888217543]
ターゲットデータセットには少数の例しか含まれていないため、ファインチューニングは数ショットの学習には効果がない。
本稿では,より少ないベースクラスでのトレーニングにより,ターゲットデータセットのより良い特徴が得られるかどうかを検討する。
我々の知る限り、慎重に選択されたベースクラスのサブセットで微調整を行うことで、ほとんどショット学習を大幅に改善できる最初の実演である。
論文 参考訳(メタデータ) (2024-01-29T01:52:49Z) - Few-Shot Object Detection via Variational Feature Aggregation [32.34871873486389]
本稿では,2つの新しい特徴集約方式を用いたメタラーニングフレームワークを提案する。
まず,クラス非依存アグリゲーション(CAA)手法を提案する。
次に、クラスレベルのサポート機能にサポート例をエンコードする変分特徴集約(VFA)手法を提案する。
論文 参考訳(メタデータ) (2023-01-31T04:58:21Z) - Prediction Calibration for Generalized Few-shot Semantic Segmentation [101.69940565204816]
汎用Few-shot Semantic (GFSS) は、各画像ピクセルを、豊富なトレーニング例を持つベースクラスか、クラスごとにわずかに(例: 1-5)のトレーニングイメージを持つ新しいクラスのいずれかに分割することを目的としている。
我々は、融合したマルチレベル機能を用いて、分類器の最終予測をガイドするクロスアテンションモジュールを構築する。
私たちのPCNは、最先端の代替品よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-10-15T13:30:12Z) - A Closer Look at Few-Shot Video Classification: A New Baseline and
Benchmark [33.86872697028233]
本研究は,3つのコントリビューションを生かした映像分類の詳細な研究である。
まず,既存のメートル法を一貫した比較研究を行い,表現学習の限界を明らかにする。
第2に,新しいアクションクラスとImageNetオブジェクトクラスとの間には高い相関関係があることが判明した。
第3に,事前学習をせずに将来的な数ショットビデオ分類を容易にするため,より多くのベースデータを持つ新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-10-24T06:01:46Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - A Universal Representation Transformer Layer for Few-Shot Image
Classification [43.31379752656756]
少ないショット分類は、少数のサンプルで示される場合、目に見えないクラスを認識することを目的としている。
本稿では,多様なデータソースから未確認のクラスやサンプルを抽出するマルチドメイン・少数ショット画像分類の問題点について考察する。
そこで本研究では,メタ学習者がユニバーサルな特徴を活用できるユニバーサル表現変換器層を提案する。
論文 参考訳(メタデータ) (2020-06-21T03:08:00Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。