論文の概要: A Universal Representation Transformer Layer for Few-Shot Image
Classification
- arxiv url: http://arxiv.org/abs/2006.11702v4
- Date: Wed, 2 Sep 2020 22:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 11:30:28.744646
- Title: A Universal Representation Transformer Layer for Few-Shot Image
Classification
- Title(参考訳): ローショット画像分類のためのユニバーサル表現変換層
- Authors: Lu Liu, William Hamilton, Guodong Long, Jing Jiang, Hugo Larochelle
- Abstract要約: 少ないショット分類は、少数のサンプルで示される場合、目に見えないクラスを認識することを目的としている。
本稿では,多様なデータソースから未確認のクラスやサンプルを抽出するマルチドメイン・少数ショット画像分類の問題点について考察する。
そこで本研究では,メタ学習者がユニバーサルな特徴を活用できるユニバーサル表現変換器層を提案する。
- 参考スコア(独自算出の注目度): 43.31379752656756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot classification aims to recognize unseen classes when presented with
only a small number of samples. We consider the problem of multi-domain
few-shot image classification, where unseen classes and examples come from
diverse data sources. This problem has seen growing interest and has inspired
the development of benchmarks such as Meta-Dataset. A key challenge in this
multi-domain setting is to effectively integrate the feature representations
from the diverse set of training domains. Here, we propose a Universal
Representation Transformer (URT) layer, that meta-learns to leverage universal
features for few-shot classification by dynamically re-weighting and composing
the most appropriate domain-specific representations. In experiments, we show
that URT sets a new state-of-the-art result on Meta-Dataset. Specifically, it
achieves top-performance on the highest number of data sources compared to
competing methods. We analyze variants of URT and present a visualization of
the attention score heatmaps that sheds light on how the model performs
cross-domain generalization. Our code is available at
https://github.com/liulu112601/URT.
- Abstract(参考訳): 少数ショットの分類は、少数のサンプルでしか示されていないクラスを認識することを目的としている。
我々は,未発見のクラスやサンプルが多種多様なデータソースから得られるマルチドメインの少数ショット画像分類の問題を考える。
この問題は関心が高まり、Meta-Datasetのようなベンチマークの開発に影響を与えた。
このマルチドメイン設定における重要な課題は、多様なトレーニングドメインから機能表現を効果的に統合することである。
本稿では,最も適切なドメイン固有表現を動的に重み付けし構成することにより,限定的分類に普遍的な特徴を活用できるユニバーサル表現トランスフォーマ(urt)層を提案する。
実験では,URTがMeta-Datasetに新しい最先端結果を設定する。
具体的には、競合する手法と比較して、最も多くのデータソースでトップパフォーマンスを達成する。
我々はurtの変種を分析し,モデルがどのようにクロスドメイン一般化を行うかに光を当てるアテンションスコアヒートマップの可視化を行う。
私たちのコードはhttps://github.com/liulu112601/urtで利用可能です。
関連論文リスト
- Diagnose Like a Pathologist: Transformer-Enabled Hierarchical
Attention-Guided Multiple Instance Learning for Whole Slide Image
Classification [39.41442041007595]
複数のインスタンス学習とトランスフォーマーは、病理組織学的にWSI(Whole Slide Image)分類でますます人気がある。
本稿では,WSI を完全に活用するための階層型注意誘導型多重インスタンス学習フレームワークを提案する。
このフレームワーク内では、インテグレート・アテンション・トランスが提案され、トランスの性能をさらに向上する。
論文 参考訳(メタデータ) (2023-01-19T15:38:43Z) - Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations [80.76164484820818]
多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスとドメインにまたがってよく一般化されたモデルを作成することを目的とする。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合することでこれを達成している。
論文 参考訳(メタデータ) (2022-10-25T21:54:26Z) - Diverse Instance Discovery: Vision-Transformer for Instance-Aware
Multi-Label Image Recognition [24.406654146411682]
視覚変換器 (ViT) が研究基盤である。
私たちの目標は、ViTのパッチトークンとセルフアテンションメカニズムを活用して、リッチなインスタンスをマルチラベルイメージでマイニングすることにあります。
マルチスケールな局所的特徴を抽出するために、弱教師付きオブジェクトローカライゼーションに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-22T14:38:40Z) - Multi-Representation Adaptation Network for Cross-domain Image
Classification [20.615155915233693]
画像分類では、十分なラベルを取得するのに高価で時間がかかることが多い。
既存のアプローチは、主に単一の構造によって抽出された表現の分布を整列させる。
クロスドメイン画像分類における分類精度を劇的に向上させる多表現適応を提案する。
論文 参考訳(メタデータ) (2022-01-04T06:34:48Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Universal Representation Learning from Multiple Domains for Few-shot
Classification [41.821234589075445]
複数の個別に訓練されたネットワークの知識を蒸留し,一組の普遍的な深層表現を学習することを提案する。
より効率的な適応ステップにより、未確認領域に対する普遍表現をさらに洗練できることが示される。
論文 参考訳(メタデータ) (2021-03-25T13:49:12Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z) - Universal-RCNN: Universal Object Detector via Transferable Graph R-CNN [117.80737222754306]
我々はUniversal-RCNNと呼ばれる新しいユニバーサルオブジェクト検出器を提案する。
まず、すべてのカテゴリの高レベルなセマンティック表現を統合することで、グローバルなセマンティックプールを生成する。
ドメイン内推論モジュールは、空間認識GCNによってガイドされる1つのデータセット内のスパースグラフ表現を学習し、伝播する。
論文 参考訳(メタデータ) (2020-02-18T07:57:45Z) - Cross-Domain Few-Shot Classification via Learned Feature-Wise
Transformation [109.89213619785676]
各クラスにラベル付き画像がほとんどない新しいカテゴリを識別することを目的としている。
既存のメトリックベースの数ショット分類アルゴリズムは、クエリ画像の特徴埋め込みとラベル付き画像の特徴埋め込みを比較して、カテゴリを予測する。
有望な性能が証明されているが、これらの手法は目に見えない領域に一般化できないことが多い。
論文 参考訳(メタデータ) (2020-01-23T18:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。