論文の概要: Fine-Grain Few-Shot Vision via Domain Knowledge as Hyperspherical Priors
- arxiv url: http://arxiv.org/abs/2005.11450v1
- Date: Sat, 23 May 2020 02:10:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 03:26:42.485613
- Title: Fine-Grain Few-Shot Vision via Domain Knowledge as Hyperspherical Priors
- Title(参考訳): 超球面前駆体としてのドメイン知識によるファイングラインドファウショットビジョン
- Authors: Bijan Haney and Alexander Lavin
- Abstract要約: プロトタイプネットワークは、コンピュータビジョンにおいて、数ショットの学習タスクでうまく機能することが示されている。
ドメイン知識を情報的先行要素として取り入れつつ,クラスを最大限に分離することで,数発の微粒化を実現する方法を示す。
- 参考スコア(独自算出の注目度): 79.22051549519989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prototypical networks have been shown to perform well at few-shot learning
tasks in computer vision. Yet these networks struggle when classes are very
similar to each other (fine-grain classification) and currently have no way of
taking into account prior knowledge (through the use of tabular data). Using a
spherical latent space to encode prototypes, we can achieve few-shot fine-grain
classification by maximally separating the classes while incorporating domain
knowledge as informative priors. We describe how to construct a hypersphere of
prototypes that embed a-priori domain information, and demonstrate the
effectiveness of the approach on challenging benchmark datasets for fine-grain
classification, with top results for one-shot classification and 5x speedups in
training time.
- Abstract(参考訳): プロトタイプネットワークはコンピュータビジョンにおける数発の学習タスクでうまく機能することが示されている。
しかしこれらのネットワークは、クラスが互いに非常によく似ていて(きめの細かい分類)、現在(表データを用いて)事前の知識を考慮しない場合に苦労している。
球面ラテント空間を用いてプロトタイプを符号化し、クラスを極大に分離し、ドメイン知識を情報的先行として組み込むことにより、数発の細粒度分類を実現できる。
本稿では,a-prioriドメイン情報を埋め込んだプロトタイプのハイパースフィアを構築する方法について述べるとともに,1ショットの分類とトレーニング時間の5倍のスピードアップで,詳細な分類を行うためのベンチマークデータセットに対するアプローチの有効性を示す。
関連論文リスト
- Generalized Label-Efficient 3D Scene Parsing via Hierarchical Feature
Aligned Pre-Training and Region-Aware Fine-tuning [55.517000360348725]
本研究は,ラベル付きシーンが極めて限定された場合の3次元シーン理解のためのフレームワークを提案する。
事前学習された視覚言語モデルから新しいカテゴリーの知識を抽出するために,階層的特徴整合型事前学習と知識蒸留戦略を提案する。
室内と屋外の両方で実験を行ったところ、データ効率のよい学習とオープンワールドの複数ショット学習の両方において、我々のアプローチの有効性が示された。
論文 参考訳(メタデータ) (2023-12-01T15:47:04Z) - Probing clustering in neural network representations [30.640266399583613]
ニューラルネットワークトレーニングにおける多くの設計選択が、隠れた表現で形成されたクラスタにどのように影響するかを検討する。
トレーニングデータセットとアーキテクチャを、クラスタビリティに影響を及ぼす重要な要因として分離します。
正規化戦略はどの層が最高のクラスタリング性能をもたらすかに影響します。
論文 参考訳(メタデータ) (2023-11-14T02:33:54Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - On the Effectiveness of Neural Ensembles for Image Classification with
Small Datasets [2.3478438171452014]
本稿では,クラスごとのラベル付き例数件による画像分類問題に着目し,比較的小さなネットワークのアンサンブルを用いてデータ効率を向上させる。
比較的浅いネットワークをアンサンブルすることは、小さなデータセットから学ぶための現在の最先端のアプローチよりも一般的に優れている、単純だが効果的な手法であることを示す。
論文 参考訳(メタデータ) (2021-11-29T12:34:49Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Learning Granularity-Aware Convolutional Neural Network for Fine-Grained
Visual Classification [0.0]
識別的特徴を段階的に探索するGranularity-Aware Congrainedal Neural Network (GA-CNN)を提案する。
GA-CNNはバウンディングボックス/パーツアノテーションを必要とせず、エンドツーエンドでトレーニングできます。
このアプローチは3つのベンチマークデータセットで最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2021-03-04T02:18:07Z) - i-Mix: A Domain-Agnostic Strategy for Contrastive Representation
Learning [117.63815437385321]
対照的な表現学習を改善するために, 単純で効果的なドメインに依存しない正規化戦略i-Mixを提案する。
実験では、i-Mixはドメイン間の学習表現の質を一貫して改善することを示した。
論文 参考訳(メタデータ) (2020-10-17T23:32:26Z) - Towards Cross-Granularity Few-Shot Learning: Coarse-to-Fine
Pseudo-Labeling with Visual-Semantic Meta-Embedding [13.063136901934865]
少ないショットラーニングは、テスト時に少数のサンプルしか持たない、新しいカテゴリに迅速に適応することを目的としている。
本稿では,より困難なシナリオ,すなわちクロスグラニュラリティ・グラニュラリティ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラ
画像埋め込みの類似性に応じて,各粗いクラスを擬似微細クラスにグリーディクラスタリングすることで,詳細なデータ分布を近似する。
論文 参考訳(メタデータ) (2020-07-11T03:44:21Z) - Learning Cross-domain Generalizable Features by Representation
Disentanglement [11.74643883335152]
ディープラーニングモデルは、異なるドメイン間で限定的な一般化性を示す。
本稿では,MIDNet(Multual-Information-based Disentangled Neural Networks)を提案する。
本手法は手書き桁データセットと胎児超音波データセットを用いて画像分類を行う。
論文 参考訳(メタデータ) (2020-02-29T17:53:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。