論文の概要: Looking back to lower-level information in few-shot learning
- arxiv url: http://arxiv.org/abs/2005.13638v2
- Date: Thu, 16 Jul 2020 02:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 07:52:15.042387
- Title: Looking back to lower-level information in few-shot learning
- Title(参考訳): 少人数学習における低レベル情報への振り返る
- Authors: Zhongjie Yu and Sebastian Raschka
- Abstract要約: 本稿では,隠れたニューラルネットワーク層の特徴埋め込みを低レベル支援情報として活用し,分類精度を向上させることを提案する。
筆者らは,MiniImageNet と tieredImageNet という2つの人気の数点学習データセットを用いた実験を行い,この手法がネットワークの低レベル情報を利用して最先端の分類性能を向上できることを示した。
- 参考スコア(独自算出の注目度): 4.873362301533825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans are capable of learning new concepts from small numbers of examples.
In contrast, supervised deep learning models usually lack the ability to
extract reliable predictive rules from limited data scenarios when attempting
to classify new examples. This challenging scenario is commonly known as
few-shot learning. Few-shot learning has garnered increased attention in recent
years due to its significance for many real-world problems. Recently, new
methods relying on meta-learning paradigms combined with graph-based
structures, which model the relationship between examples, have shown promising
results on a variety of few-shot classification tasks. However, existing work
on few-shot learning is only focused on the feature embeddings produced by the
last layer of the neural network. In this work, we propose the utilization of
lower-level, supporting information, namely the feature embeddings of the
hidden neural network layers, to improve classifier accuracy. Based on a
graph-based meta-learning framework, we develop a method called Looking-Back,
where such lower-level information is used to construct additional graphs for
label propagation in limited data settings. Our experiments on two popular
few-shot learning datasets, miniImageNet and tieredImageNet, show that our
method can utilize the lower-level information in the network to improve
state-of-the-art classification performance.
- Abstract(参考訳): 人間は少数の例から新しい概念を学ぶことができる。
対照的に、教師付きディープラーニングモデルには、新しい例を分類しようとするときに、限られたデータシナリオから信頼できる予測ルールを抽出する能力がない。
この挑戦的なシナリオは、通常、数発の学習として知られている。
近年、実世界の問題の多くにその重要性があるため、わずかなショット学習が注目を集めている。
近年、例間の関係をモデル化するグラフ構造とメタ学習パラダイムを組み合わせる新しい手法が、様々な少数の分類タスクで有望な結果を示している。
しかしながら、少数ショット学習に関する既存の研究は、ニューラルネットワークの最終層によって生成される機能埋め込みにのみ焦点をあてている。
本研究では,隠れたニューラルネットワーク層の特徴埋め込みを低レベル支援情報として活用し,分類器の精度を向上させることを提案する。
グラフをベースとしたメタラーニングフレームワークであるLooking-Backを開発した。このような低レベル情報を用いて,限られたデータ設定でラベル伝搬のためのグラフを構築する。
miniimagenet と tieredimagenet という2つの人気のあるマイナショット学習データセットを実験した結果,ネットワークの下位レベル情報を利用して最先端の分類性能を向上させることができた。
関連論文リスト
- Two-level Graph Network for Few-Shot Class-Incremental Learning [7.815043173207539]
FSCIL(Few-shot class-incremental Learning)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムを設計することを目的としている。
既存のFSCILメソッドは、サンプルレベルとクラスレベルの意味関係を無視する。
本稿では,サンプルレベルとクラスレベルグラフニューラルネット(SCGN)というFSCIL用の2レベルグラフネットワークを設計した。
論文 参考訳(メタデータ) (2023-03-24T08:58:08Z) - Semantic Enhanced Knowledge Graph for Large-Scale Zero-Shot Learning [74.6485604326913]
我々は、専門知識とカテゴリ意味相関の両方を含む新しい意味強化知識グラフを提供する。
知識グラフの情報伝達のために,Residual Graph Convolutional Network (ResGCN)を提案する。
大規模画像Net-21KデータセットとAWA2データセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-26T13:18:36Z) - A Simple Yet Effective Pretraining Strategy for Graph Few-shot Learning [38.66690010054665]
本稿では,グラフ数ショット学習のための新しいパラダイムとして,シンプルなトランスダクティブな微調整型フレームワークを提案する。
事前学習のために,数発のノード分類に特有なデータ拡張戦略を持つ教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T22:30:00Z) - Budget-aware Few-shot Learning via Graph Convolutional Network [56.41899553037247]
本稿では,いくつかの例から新しい視覚概念を学習することを目的とした,数ショット学習の課題に取り組む。
数ショット分類における一般的な問題設定は、データラベルの取得においてランダムサンプリング戦略を前提としている。
そこで我々は,新しい対象カテゴリーの学習を目的とした,予算に配慮した数発の学習問題を新たに導入する。
論文 参考訳(メタデータ) (2022-01-07T02:46:35Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Learning from Few Samples: A Survey [1.4146420810689422]
コンピュータビジョン領域における既存の数ショットメタ学習手法について,その手法と評価指標に基づいて検討する。
我々は、これらの技術のための分類法を提供し、それらをデータ拡張、埋め込み、最適化、セマンティクスに基づく学習に分類する。
論文 参考訳(メタデータ) (2020-07-30T14:28:57Z) - Complementing Representation Deficiency in Few-shot Image
Classification: A Meta-Learning Approach [27.350615059290348]
本稿では,MCRNetを用いたメタラーニング手法を提案する。
特に、潜時空間を埋め込んで、潜時符号を余分な表現情報で再構成し、表現不足を補完する。
我々のエンドツーエンドフレームワークは、3つの標準的な数ショット学習データセット上の画像分類における最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-21T13:25:54Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。