論文の概要: FSL Model can Score Higher as It Is
- arxiv url: http://arxiv.org/abs/2402.18292v1
- Date: Wed, 28 Feb 2024 12:37:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 15:07:52.198197
- Title: FSL Model can Score Higher as It Is
- Title(参考訳): FSLモデルはそれと同じくらい高くスコアアップできる
- Authors: Yunwei Bai, Ying Kiat Tan, Tsuhan Chen
- Abstract要約: モデルは、トレーニング中に未確認のクラスに属するイメージを識別する必要があるため、ほとんどショット・ラーニングの分類はそれ自体が困難である。
本研究では、画像から画像への変換により、テストクラスの新しいサンプルを生成することにより、トレーニング済みのFSLモデルのテスト入力を修正することを目的とする。
提案手法はまず,テスト画像のスタイルや形状を抽出し,適切なクラスサンプルを同定する。
その後、テストイメージのスタイルや形状を列車級画像に転送し、より多くのテストクラスサンプルを生成し、代わりに生成されたサンプルのセットに基づいて分類を実行する。
- 参考スコア(独自算出の注目度): 0.20718016474717196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In daily life, we tend to present the front of our faces by staring squarely
at a facial recognition machine, instead of facing it sideways, in order to
increase the chance of being correctly recognised. Few-shot-learning (FSL)
classification is challenging in itself because a model has to identify images
that belong to classes previously unseen during training. Therefore, a warped
and non-typical query or support image during testing can make it even more
challenging for a model to predict correctly. In our work, to increase the
chance of correct prediction during testing, we aim to rectify the test input
of a trained FSL model by generating new samples of the tested classes through
image-to-image translation. An FSL model is usually trained on classes with
sufficient samples, and then tested on classes with few-shot samples. Our
proposed method first captures the style or shape of the test image, and then
identifies a suitable trained class sample. It then transfers the style or
shape of the test image to the train-class images for generation of more
test-class samples, before performing classification based on a set of
generated samples instead of just one sample. Our method has potential in
empowering a trained FSL model to score higher during the testing phase without
any extra training nor dataset. According to our experiments, by augmenting the
support set with just 1 additional generated sample, we can achieve around 2%
improvement for trained FSL models on datasets consisting of either animal
faces or traffic signs. By augmenting both the support set and the queries, we
can achieve even more performance improvement. Our Github Repository is
publicly available.
- Abstract(参考訳): 日常生活において、私たちは、正しく認識される可能性を高めるために、顔を横向きではなく、顔認識マシンを真正面から見つめることで、顔の前面を現示する傾向があります。
FSL(Few-shot-learning)分類は、トレーニング中に未確認のクラスに属する画像を特定する必要があるため、それ自体が困難である。
したがって、テスト中の歪んだ非典型的なクエリやサポートイメージは、モデルを正しく予測することがさらに困難になる可能性がある。
本研究は,テスト中に正しい予測を行う可能性を高めるため,画像から画像への変換によってテストクラスの新しいサンプルを生成することにより,トレーニング済みFSLモデルのテスト入力を修正することを目的とする。
fslモデルは通常、十分なサンプルを持つクラスで訓練され、少数サンプルを持つクラスでテストされる。
提案手法は,まずテスト画像のスタイルや形状をキャプチャし,次に適切な訓練を受けたクラスサンプルを同定する。
その後、テスト画像のスタイルや形を、より多くのテストクラスサンプルを生成するためのトレインクラスイメージに転送し、生成したサンプルのセットに基づいて分類を行う。
本手法は,テストフェーズにおいて,余分なトレーニングやデータセットを伴わずに,トレーニング済みのFSLモデルにより高いスコアを付与する可能性を秘めている。
実験によると、追加の1つのサンプルでサポートセットを増強することで、動物顔または交通標識からなるデータセット上で、トレーニング済みのFSLモデルに対して約2%の改善が達成できる。
サポートセットとクエリの両方を拡張することで、さらにパフォーマンスの改善が達成できます。
Githubリポジトリは公開されています。
関連論文リスト
- Masked Diffusion Models Are Fast Distribution Learners [32.485235866596064]
拡散モデルは、スクラッチからきめ細かい視覚情報を学習するために一般的に訓練されている。
まず, 素数分布を学習するためにモデルの事前学習を行うことにより, 強い拡散モデルを訓練するのに十分であることを示す。
そして、事前学習されたモデルは、様々な生成タスクに対して効率的に微調整することができる。
論文 参考訳(メタデータ) (2023-06-20T08:02:59Z) - Zero-shot Model Diagnosis [80.36063332820568]
ディープラーニングモデルを評価するための一般的なアプローチは、興味のある属性を持つラベル付きテストセットを構築し、そのパフォーマンスを評価することである。
本稿では,ゼロショットモデル診断(ZOOM)がテストセットやラベル付けを必要とせずに可能であることを論じる。
論文 参考訳(メタデータ) (2023-03-27T17:59:33Z) - Semantic Cross Attention for Few-shot Learning [9.529264466445236]
本稿では,ラベルテキストのセマンティックな特徴を補助的タスクとして見るためのマルチタスク学習手法を提案する。
提案モデルでは,単語埋め込み表現をセマンティックな特徴として用いて,埋め込みネットワークとセマンティックなクロスアテンションモジュールをトレーニングし,セマンティックな特徴を一般的な視覚的モーダルにブリッジする。
論文 参考訳(メタデータ) (2022-10-12T15:24:59Z) - TTAPS: Test-Time Adaption by Aligning Prototypes using Self-Supervision [70.05605071885914]
本研究では,単体テストサンプルに適用可能な自己教師付きトレーニングアルゴリズムSwaVの新たな改良を提案する。
ベンチマークデータセットCIFAR10-Cにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-05-18T05:43:06Z) - Generating Representative Samples for Few-Shot Classification [8.62483598990205]
クラスごとの視覚的なサンプルで新しいカテゴリを学習することを目的としている。
データ不足によってクラス表現がバイアスを受ける場合が少なくない。
条件付き変分オートエンコーダモデルを用いて,意味的埋め込みに基づく視覚サンプルを生成する。
論文 参考訳(メタデータ) (2022-05-05T20:58:33Z) - Few-Shot Transfer Learning to improve Chest X-Ray pathology detection
using limited triplets [0.0]
ディープラーニングアプローチは、多くの診断タスクにおいて、ほぼ人間に近い、あるいは人間に近いパフォーマンスに達している。
本稿では,Few-Shot Learningによる事前学習モデルの予測を改善するための実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T15:44:56Z) - KNN-Diffusion: Image Generation via Large-Scale Retrieval [40.6656651653888]
適応する学習は、いくつかの新しい機能を可能にします。
微調整の訓練されたモデルと新しいサンプルは、単にテーブルに追加するだけで実現できる。
我々の拡散モデルでは、共同のテキスト・イメージ・マルチモーダル・メトリックを利用することで、画像のみを訓練する。
論文 参考訳(メタデータ) (2022-04-06T14:13:35Z) - Boost Test-Time Performance with Closed-Loop Inference [85.43516360332646]
そこで本研究では,モデル性能を高めるために,ループ方式でハードクラス化試験サンプルを予測することを提案する。
まず、追加の推論ループを必要とするハードクラス化テストサンプルを識別するためにフィルタリング基準を考案する。
各ハードサンプルに対して、モデルのキャリブレーションを行うために、元の上位$K$予測に基づいて補助学習タスクを構築する。
論文 参考訳(メタデータ) (2022-03-21T10:20:21Z) - MoPro: Webly Supervised Learning with Momentum Prototypes [140.76848620407168]
本稿では,教師付き学習におけるアノテーションの可読性を損なうことなく,Webで教師付き表現学習手法を提案する。
MoProは、弱いラベル付きノイズデータセットであるWebVisionで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-09-17T00:59:59Z) - TAFSSL: Task-Adaptive Feature Sub-Space Learning for few-shot
classification [50.358839666165764]
本稿では,タスク適応機能サブスペース学習(TAFSSL)により,Few-Shot Learningシナリオの性能を大幅に向上させることができることを示す。
具体的には、挑戦的な miniImageNet と tieredImageNet ベンチマークにおいて、TAFSSL はトランスダクティブおよび半教師付き FSL 設定の両方で現在の状態を改善することができることを示しています。
論文 参考訳(メタデータ) (2020-03-14T16:59:17Z) - AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning [112.95742995816367]
FSFSLと呼ばれる新しい数発のスナップショット・ラーニング・セッティングを提案する。
FSFSLでは、ソースクラスとターゲットクラスの両方に限られたトレーニングサンプルがある。
また,無関係な画像を削除するためのグラフ畳み込みネットワーク (GCN) ベースのラベルデノイング (LDN) 手法を提案する。
論文 参考訳(メタデータ) (2020-02-28T10:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。