論文の概要: Expanding continual few-shot learning benchmarks to include recognition
of specific instances
- arxiv url: http://arxiv.org/abs/2209.07863v3
- Date: Mon, 6 Nov 2023 04:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 01:42:41.662606
- Title: Expanding continual few-shot learning benchmarks to include recognition
of specific instances
- Title(参考訳): 特定のインスタンスの認識を含む継続的少数ショット学習ベンチマークの拡張
- Authors: Gideon Kowadlo, Abdelrahman Ahmed, Amir Mayan, David Rawlinson
- Abstract要約: 継続的な学習と数発の学習は、より広範な機械学習(ML)機能に向けて進む上で重要なフロンティアである。
1つの例外は、Antoniou et al. arXiv:2004.11967の連続的な数発学習フレームワークである。
CFSLを標準連続学習実験に匹敵するように修正する。
第二に、クラスの特定のインスタンスの認識を必要とする「インスタンステスト」を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning and few-shot learning are important frontiers in progress
towards broader Machine Learning (ML) capabilities. There is a growing body of
work in both, but few works combining the two. One exception is the Continual
few-shot Learning (CFSL) framework of Antoniou et al. arXiv:2004.11967. In this
study, we extend CFSL in two ways that capture a broader range of challenges,
important for intelligent agent behaviour in real-world conditions. First, we
modify CFSL to make it more comparable to standard continual learning
experiments, where usually a much larger number of classes are presented.
Second, we introduce an 'instance test' which requires recognition of specific
instances of classes -- a capability of animal cognition that is usually
neglected in ML. For an initial exploration of ML model performance under these
conditions, we selected representative baseline models from the original CFSL
work and added a model variant with replay. As expected, learning more classes
is more difficult than the original CFSL experiments, and interestingly, the
way in which image instances and classes are presented affects classification
performance. Surprisingly, accuracy in the baseline instance test is comparable
to other classification tasks, but poor given significant occlusion and noise.
The use of replay for consolidation improves performance substantially for both
types of tasks, but particularly the instance test.
- Abstract(参考訳): 継続的学習と数少ない学習は、より広範な機械学習(ml)能力に向けた重要なフロンティアである。
両者とも多くの仕事があるが、この2つを組み合わせる作業はほとんどない。
例外として、Antoniou et al. arXiv:2004.11967のCFSLフレームワークがある。
本研究では,現実の状況下での知的エージェント行動において重要な,幅広い課題を捉える2つの方法でCFSLを拡張した。
まず、CFSLを改良して、通常より多くのクラスが提示される標準的な連続学習実験に匹敵するようにします。
第二に、私たちはクラスの特定の事例を認識する必要がある「インスタンステスト」を導入します -- MLでは通常無視される動物の認知能力です。
これらの条件下でMLモデルの性能を最初に検討するために、元のCFSL作業から代表ベースラインモデルを選択し、リプレイによるモデル変種を追加した。
予想通り、より多くのクラスを学ぶことはcfslの実験よりも難しく、興味深いことに、画像インスタンスとクラスが提示される方法が分類性能に影響する。
驚くべきことに、ベースラインインスタンステストの精度は他の分類タスクに匹敵するが、かなりの閉塞とノイズが与えられていない。
統合のためのリプレイの使用により、両方のタスク、特にインスタンステストのパフォーマンスが大幅に向上する。
関連論文リスト
- Queryable Prototype Multiple Instance Learning with Vision-Language Models for Incremental Whole Slide Image Classification [10.667645628712542]
本稿では, 逐次WSI分類に特化して設計された, Queryable Prototype Multiple Instance Learning (QPMIL-VL) を用いた視覚言語ベースのフレームワークを提案する。
TCGAデータセットの4つの実験により、我々のQPMIL-VLフレームワークが漸進的なWSI分類に有効であることが示された。
論文 参考訳(メタデータ) (2024-10-14T14:49:34Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - Demystifying the Base and Novel Performances for Few-shot
Class-incremental Learning [15.762281194023462]
FSCIL(Few-shot class-incremental Learning)は、目に見えない新しいクラスがほとんどサンプルを持って絶えずやってくる現実のシナリオに対処している。
先行知識を忘れずに新しいクラスを認識するモデルを開発する必要がある。
本手法は,高度な最先端アルゴリズムと同等の性能を有することを示す。
論文 参考訳(メタデータ) (2022-06-18T00:39:47Z) - Sylph: A Hypernetwork Framework for Incremental Few-shot Object
Detection [8.492340530784697]
大量のデータを含む多くの基本カテゴリがメタトレーニングに利用できる場合、ファネチューンフリーのiFSDは極めて有効であることを示す。
我々はCOCOとLVISの両方でモデルをベンチマークし、LVISの長テールレアクラスで最大17%のAPを報告した。
論文 参考訳(メタデータ) (2022-03-25T20:39:00Z) - Mimicking the Oracle: An Initial Phase Decorrelation Approach for Class Incremental Learning [141.35105358670316]
本研究では,Na"訓練初期相モデルとオラクルモデルとの相違について検討する。
より均一に散らばるように,各クラスの表現を効果的に正規化するクラスワイド・デコレーション(CwD)を提案する。
私たちのCwDは実装が簡単で、既存のメソッドに簡単にプラグインできます。
論文 参考訳(メタデータ) (2021-12-09T07:20:32Z) - Few Shot Activity Recognition Using Variational Inference [9.371378627575883]
本稿では,少数のショットアクティビティ認識のための新しい変分推論ベースアーキテクチャフレームワーク(HF-AR)を提案する。
筆者らの枠組みは, 容積保存型家庭用フローを活用して, 新規クラスの柔軟な後部分布を学習する。
これにより、人間の行動認識のための最先端のショットアプローチと比較して、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-08-20T03:57:58Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Fine-grained Angular Contrastive Learning with Coarse Labels [72.80126601230447]
教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
論文 参考訳(メタデータ) (2020-12-07T08:09:02Z) - Unsupervised One-shot Learning of Both Specific Instances and
Generalised Classes with a Hippocampal Architecture [0.0]
特定のインスタンスを識別することは、あなたが属するカップを記憶するなど、現実世界の多くのタスクに必要である。
クラス内の一般化は、クラスのインスタンスを分離する能力と矛盾し、単一のアーキテクチャ内で両方の機能を達成するのが難しくなる。
我々は,1回の露光後に特定のインスタンスを識別する能力をテストする標準Omniglot分類一般化フレームワークの拡張を提案する。
論文 参考訳(メタデータ) (2020-10-30T00:10:23Z) - Overcoming Classifier Imbalance for Long-tail Object Detection with
Balanced Group Softmax [88.11979569564427]
本報告では, 長期分布前における最先端モデルの過小評価に関する最初の体系的解析を行う。
本稿では,グループワイドトレーニングを通じて検出フレームワーク内の分類器のバランスをとるための,新しいバランス付きグループソフトマックス(BAGS)モジュールを提案する。
非常に最近の長尾大語彙オブジェクト認識ベンチマークLVISの大規模な実験により,提案したBAGSは検出器の性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2020-06-18T10:24:26Z) - Few-Shot Learning as Domain Adaptation: Algorithm and Analysis [120.75020271706978]
わずかながらの学習は、目に見えないクラスを認識するために、目に見えないクラスから学んだ事前知識を使用する。
このクラス差による分布シフトは、ドメインシフトの特別なケースとみなすことができる。
メタラーニングフレームワークにおいて、そのようなドメインシフト問題に明示的に対処するために、注意を向けたプロトタイプドメイン適応ネットワーク(DAPNA)を提案する。
論文 参考訳(メタデータ) (2020-02-06T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。