論文の概要: AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2002.12641v2
- Date: Mon, 9 Mar 2020 08:05:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 01:39:59.367566
- Title: AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
- Title(参考訳): AdarGCN:Few-Shot Learningのための適応集約GCN
- Authors: Jianhong Zhang, Manli Zhang, Zhiwu Lu, Tao Xiang and Jirong Wen
- Abstract要約: FSFSLと呼ばれる新しい数発のスナップショット・ラーニング・セッティングを提案する。
FSFSLでは、ソースクラスとターゲットクラスの両方に限られたトレーニングサンプルがある。
また,無関係な画像を削除するためのグラフ畳み込みネットワーク (GCN) ベースのラベルデノイング (LDN) 手法を提案する。
- 参考スコア(独自算出の注目度): 112.95742995816367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing few-shot learning (FSL) methods assume that there exist sufficient
training samples from source classes for knowledge transfer to target classes
with few training samples. However, this assumption is often invalid,
especially when it comes to fine-grained recognition. In this work, we define a
new FSL setting termed few-shot fewshot learning (FSFSL), under which both the
source and target classes have limited training samples. To overcome the source
class data scarcity problem, a natural option is to crawl images from the web
with class names as search keywords. However, the crawled images are inevitably
corrupted by large amount of noise (irrelevant images) and thus may harm the
performance. To address this problem, we propose a graph convolutional network
(GCN)-based label denoising (LDN) method to remove the irrelevant images.
Further, with the cleaned web images as well as the original clean training
images, we propose a GCN-based FSL method. For both the LDN and FSL tasks, a
novel adaptive aggregation GCN (AdarGCN) model is proposed, which differs from
existing GCN models in that adaptive aggregation is performed based on a
multi-head multi-level aggregation module. With AdarGCN, how much and how far
information carried by each graph node is propagated in the graph structure can
be determined automatically, therefore alleviating the effects of both noisy
and outlying training samples. Extensive experiments show the superior
performance of our AdarGCN under both the new FSFSL and the conventional FSL
settings.
- Abstract(参考訳): 既存の数ショット学習(FSL)手法では、知識の伝達のためにソースクラスからターゲットクラスへの十分なトレーニングサンプルが存在すると仮定する。
しかし、この仮定は、特に粒度の細かい認識に関しては、しばしば無効である。
そこで本研究では,FSFSL ( few-shot fewshot Learning) と呼ばれる新たなFSL設定を定義し,その下にソースクラスとターゲットクラスが限定的なトレーニングサンプルを持つ。
ソースクラスのデータの不足を克服するために、クラス名を検索キーワードとして、Webから画像をクローリングする自然な選択肢がある。
しかし、クロー画像は大量のノイズ(無関係画像)によって必然的に破損し、性能を損なう可能性がある。
この問題に対処するために,無関係な画像を削除するためのグラフ畳み込みネットワーク (GCN) ベースのラベルデノイング (LDN) 手法を提案する。
さらに,クリーニングしたweb画像とオリジナルのクリーニングトレーニング画像を用いて,gcnベースのfsl手法を提案する。
ldnタスクとfslタスクの両方に対して,マルチヘッドマルチレベルアグリゲーションモジュールに基づいて適応アグリゲーションを行うという既存のgcnモデルとは異なる,新しい適応アグリゲーションgcn(adargcn)モデルを提案する。
adargcnでは、グラフ構造に各グラフノードが伝搬する情報量と距離を自動的に決定することができ、ノイズとトレーニングサンプルの両方の効果を軽減できる。
新しいFSFSLと従来のFSL設定の両方で,AdarGCNの優れた性能を示した。
関連論文リスト
- Erasing the Bias: Fine-Tuning Foundation Models for Semi-Supervised Learning [4.137391543972184]
半教師付き学習(SSL)は目覚ましい進歩をみせており、多くの方法のバリエーションをもたらしている。
本稿では,FinSSLという新しいSSLアプローチを提案する。
我々は、FineSSLが複数のベンチマークデータセットにSSLの新たな状態を設定し、トレーニングコストを6倍以上削減し、さまざまな微調整と現代的なSSLアルゴリズムをシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-05-20T03:33:12Z) - FSL-Rectifier: Rectify Outliers in Few-Shot Learning via Test-Time Augmentation [7.477118370563593]
FSL(Few-shot-learning)は通常、トレーニング中に目に見えないクラスに属する画像(クエリ)を識別するモデルを必要とする。
生成画像コンバインダを用いて、原サンプルと適切な列車クラスサンプルを組み合わせることで、追加のテストクラスサンプルを生成する。
我々は、平均化によってより典型的な表現をもたらす拡張子を介して平均化された特徴を得る。
論文 参考訳(メタデータ) (2024-02-28T12:37:30Z) - GenSelfDiff-HIS: Generative Self-Supervision Using Diffusion for Histopathological Image Segmentation [5.049466204159458]
自己教師付き学習(SSL)は、注釈のないデータのみを利用するモデルを構築することで、いくつかの欠点を提供する代替パラダイムである。
本稿では,生成拡散モデルを用いて病理像をセグメント化するためのSSLアプローチを提案する。
本手法は,拡散モデルがセグメント化タスクに似た画像から画像への変換タスクを効果的に解くことに基づく。
論文 参考訳(メタデータ) (2023-09-04T09:49:24Z) - ESPT: A Self-Supervised Episodic Spatial Pretext Task for Improving
Few-Shot Learning [16.859375666701]
我々は,新しい自己教師型空間規範タスク(ESPT)により,数発の学習目標を増強することを提案する。
ESPTの目的は、原エピソードと変換されたエピソードの間の局所的な空間的関係の一貫性を最大化することである。
ESPT法は,3つのメインステイ・ベンチマーク・データセットを用いた数ショット画像分類のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-26T04:52:08Z) - Self Supervised Learning for Few Shot Hyperspectral Image Classification [57.2348804884321]
HSI分類に自己監督学習(SSL)を活用することを提案する。
最先端のSSLアルゴリズムであるBarlow-Twinsを用いて,ラベルのない画素にエンコーダを事前学習することにより,少数のラベルを持つ正確なモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-06-24T07:21:53Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - Wave-SAN: Wavelet based Style Augmentation Network for Cross-Domain
Few-Shot Learning [95.78635058475439]
クロスドメイン少ショット学習は、一般的な自然画像から新しいドメイン固有のターゲットカテゴリへ知識を伝達することを目的としている。
本稿では、ソースデータセットのスタイル分布を分散させることにより、CD-FSLの問題点を考察する。
我々のモデルを視覚的スタイルに堅牢にするために、低周波成分のスタイルを交換することで、ソースイメージを拡張します。
論文 参考訳(メタデータ) (2022-03-15T05:36:41Z) - Self-Supervised Learning of Graph Neural Networks: A Unified Review [50.71341657322391]
ラベルなしサンプルを多用する新たなパラダイムとして,自己教師型学習が登場している。
SSLを用いたグラフニューラルネットワーク(GNNs)のトレーニング方法の統一レビューを提供します。
gnnに対するssl手法の処理は,様々な手法の類似性と相違に光を当て,新しい手法やアルゴリズムの開発段階を定めている。
論文 参考訳(メタデータ) (2021-02-22T03:43:45Z) - Remote Sensing Image Scene Classification with Self-Supervised Paradigm
under Limited Labeled Samples [11.025191332244919]
我々は,大規模なラベル付きデータからRSIシーン分類のための高性能事前学習モデルを得るために,新たな自己教師付き学習(SSL)機構を導入する。
一般的な3つのRSIシーン分類データセットの実験により、この新たな学習パラダイムは、従来の支配的なImageNet事前学習モデルよりも優れていることが示された。
我々の研究から得られた知見は、リモートセンシングコミュニティにおけるSSLの発展を促進するのに役立ちます。
論文 参考訳(メタデータ) (2020-10-02T09:27:19Z) - TAFSSL: Task-Adaptive Feature Sub-Space Learning for few-shot
classification [50.358839666165764]
本稿では,タスク適応機能サブスペース学習(TAFSSL)により,Few-Shot Learningシナリオの性能を大幅に向上させることができることを示す。
具体的には、挑戦的な miniImageNet と tieredImageNet ベンチマークにおいて、TAFSSL はトランスダクティブおよび半教師付き FSL 設定の両方で現在の状態を改善することができることを示しています。
論文 参考訳(メタデータ) (2020-03-14T16:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。