論文の概要: Unlocking Transfer Learning for Open-World Few-Shot Recognition
- arxiv url: http://arxiv.org/abs/2411.09986v1
- Date: Fri, 15 Nov 2024 06:43:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:39:16.588009
- Title: Unlocking Transfer Learning for Open-World Few-Shot Recognition
- Title(参考訳): オープンワールドFew-Shot認識のためのアンロックトランスファー学習
- Authors: Byeonggeun Kim, Juntae Lee, Kyuhong Shim, Simyung Chang,
- Abstract要約: Few-Shot Open-Set Recognition (FSOSR) は、入力を既知のカテゴリに分類することを目的としている。
オープンセットなメタ学習とオープンセットのフリートランスファー学習を組み合わせた2段階の手法を提案する。
提案手法は,2つの広く認識されているベンチマークである miniImageNet と tieredImageNet の最先端性能を実現し,トレーニング作業は 1.5% しか増加しない。
- 参考スコア(独自算出の注目度): 19.318034618094895
- License:
- Abstract: Few-Shot Open-Set Recognition (FSOSR) targets a critical real-world challenge, aiming to categorize inputs into known categories, termed closed-set classes, while identifying open-set inputs that fall outside these classes. Although transfer learning where a model is tuned to a given few-shot task has become a prominent paradigm in closed-world, we observe that it fails to expand to open-world. To unlock this challenge, we propose a two-stage method which consists of open-set aware meta-learning with open-set free transfer learning. In the open-set aware meta-learning stage, a model is trained to establish a metric space that serves as a beneficial starting point for the subsequent stage. During the open-set free transfer learning stage, the model is further adapted to a specific target task through transfer learning. Additionally, we introduce a strategy to simulate open-set examples by modifying the training dataset or generating pseudo open-set examples. The proposed method achieves state-of-the-art performance on two widely recognized benchmarks, miniImageNet and tieredImageNet, with only a 1.5\% increase in training effort. Our work demonstrates the effectiveness of transfer learning in FSOSR.
- Abstract(参考訳): Few-Shot Open-Set Recognition (FSOSR) は、クラス外にあるオープンセット入力を特定しながら、入力を既知のカテゴリに分類することを目的とした、重要な現実世界の課題をターゲットにしている。
モデルが与えられた数発のタスクにチューニングされるトランスファーラーニングは、クローズドワールドにおいて顕著なパラダイムとなっているが、オープンワールドへの拡張には失敗している。
この課題を解決するために,オープンセットなメタ学習とオープンセットのフリートランスファー学習を組み合わせた2段階の手法を提案する。
オープンセットのメタラーニング段階では、モデルが訓練され、その後の段階にとって有益な出発点となる計量空間が確立される。
オープンセットのフリートランスファー学習段階において、モデルはさらに、トランスファー学習を通じて特定の目標タスクに適応する。
さらに、トレーニングデータセットを変更したり、擬似オープンセットの例を生成することで、オープンセットの例をシミュレートする戦略を導入する。
提案手法は,2つの広く認識されているベンチマークである miniImageNet と tieredImageNet に対して,1.5 % のトレーニング時間で最先端のパフォーマンスを実現する。
本研究は,FSOSRにおける伝達学習の有効性を示す。
関連論文リスト
- Cross-Modal Few-Shot Learning: a Generative Transfer Learning Framework [58.362064122489166]
本稿では,複数モーダルからインスタンスを識別するクロスモーダルなFew-Shot Learningタスクを提案する。
本稿では,1つの段階からなる生成的転帰学習フレームワークを提案する。1つは豊富な一助データに対する学習を伴い,もう1つは新しいデータに適応するための転帰学習に焦点を当てる。
以上の結果から,GTLは4つの異なるマルチモーダルデータセット間の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-14T16:09:38Z) - Meta-Adapter: An Online Few-shot Learner for Vision-Language Model [64.21017759533474]
CLIPとして知られる対照的な視覚言語事前学習は、オープンワールドの視覚概念を知覚する大きな可能性を実証している。
CLIPに基づくほとんどショットの学習方法は、通常、少数のサンプルでパラメータをオフラインで微調整する必要がある。
少数のサンプルから導かれるCLIP機能をオンライン的に洗練するための,軽量な残差型アダプタであるMeta-Adapterを提案する。
論文 参考訳(メタデータ) (2023-11-07T07:27:16Z) - Slot Induction via Pre-trained Language Model Probing and Multi-level
Contrastive Learning [62.839109775887025]
トークンレベルのスロットアノテーションの明示的な知識なしでスロット境界を誘導することを目的としたスロットインジェクション(SI)タスク。
PLMから抽出した教師なし意味知識を活用するために、教師なし事前学習言語モデル(PLM)探索とコントラスト学習機構を活用することを提案する。
提案手法は,2つのNLUベンチマークデータセット上でトークンレベルの教師付きモデルとのギャップを埋めることができ,SIタスクに有効であることが示されている。
論文 参考訳(メタデータ) (2023-08-09T05:08:57Z) - Bayesian Embeddings for Few-Shot Open World Recognition [60.39866770427436]
埋め込みベースの数ショット学習アルゴリズムをオープンワールド認識設定に拡張する。
当社のフレームワークは,MiniImageNetとTieredImageNetによる数ショット学習データセットのオープンワールド拡張をベンチマークする。
論文 参考訳(メタデータ) (2021-07-29T00:38:47Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Task-Adaptive Negative Class Envision for Few-Shot Open-Set Recognition [36.53830822788852]
新しいソースからのクエリに堅牢な認識システムを学ぶための、数発のオープンセット認識(FSOR)の問題について研究する。
オープン世界をモデル化する新しいタスク適応型負クラスビジュアライゼーション手法(tane)を提案する。
本手法は, オープンセット認識における最先端の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2020-12-24T02:30:18Z) - Incremental Learning from Low-labelled Stream Data in Open-Set Video
Face Recognition [0.0]
本稿では,深層機能エンコーダとSVMのオープンセット動的アンサンブルを組み合わせた新しいインクリメンタル学習手法を提案する。
本手法は,教師なしの操作データを用いて認識性を向上させる。
結果は、非適応状態の方法に対する最大15%のF1スコア増加の利点を示しています。
論文 参考訳(メタデータ) (2020-12-17T13:28:13Z) - Self-Supervised Prototypical Transfer Learning for Few-Shot
Classification [11.96734018295146]
自己教師ありトランスファー学習アプローチ ProtoTransferは、数ショットタスクにおいて、最先端の教師なしメタラーニング手法より優れている。
ドメインシフトを用いた数ショットの実験では、我々のアプローチは教師付きメソッドに匹敵する性能を持つが、ラベルの桁数は桁違いである。
論文 参考訳(メタデータ) (2020-06-19T19:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。