論文の概要: ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification
- arxiv url: http://arxiv.org/abs/2006.15366v1
- Date: Sat, 27 Jun 2020 13:50:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 08:00:18.718377
- Title: ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification
- Title(参考訳): ReMarNet:小型画像分類のためのコンジョイント関係とマージン学習
- Authors: Xiaoxu Li, Liyun Yu, Xiaochen Yang, Zhanyu Ma, Jing-Hao Xue, Jie Cao,
Jun Guo
- Abstract要約: ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
- 参考スコア(独自算出の注目度): 49.87503122462432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite achieving state-of-the-art performance, deep learning methods
generally require a large amount of labeled data during training and may suffer
from overfitting when the sample size is small. To ensure good generalizability
of deep networks under small sample sizes, learning discriminative features is
crucial. To this end, several loss functions have been proposed to encourage
large intra-class compactness and inter-class separability. In this paper, we
propose to enhance the discriminative power of features from a new perspective
by introducing a novel neural network termed Relation-and-Margin learning
Network (ReMarNet). Our method assembles two networks of different backbones so
as to learn the features that can perform excellently in both of the
aforementioned two classification mechanisms. Specifically, a relation network
is used to learn the features that can support classification based on the
similarity between a sample and a class prototype; at the meantime, a fully
connected network with the cross entropy loss is used for classification via
the decision boundary. Experiments on four image datasets demonstrate that our
approach is effective in learning discriminative features from a small set of
labeled samples and achieves competitive performance against state-of-the-art
methods. Codes are available at https://github.com/liyunyu08/ReMarNet.
- Abstract(参考訳): 最先端のパフォーマンスを達成するにも拘わらず、ディープラーニング手法は訓練中に大量のラベル付きデータを必要とし、サンプルサイズが小さい場合には過度に適合する可能性がある。
サンプルサイズの小さいディープネットワークの良好な一般化性を確保するためには,識別的特徴の学習が不可欠である。
この目的のために、クラス内コンパクト性とクラス間分離性を高めるためにいくつかの損失関数が提案されている。
本稿では,新しいニューラルネットワークであるremarnet(relation-and-margin learning network)を導入することで,特徴の識別能力を高めることを提案する。
提案手法は,上記の2つの分類機構の両方において優れた性能を示す特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
具体的には、関係ネットワークを用いて、サンプルとクラスプロトタイプの類似性に基づいて分類を支援する特徴を学習し、一方、クロスエントロピー損失を伴う完全連結ネットワークは、決定境界による分類に使用される。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習し,最先端の手法と競合する性能が得られることを示した。
コードはhttps://github.com/liyunyu08/ReMarNetで入手できる。
関連論文リスト
- Compare learning: bi-attention network for few-shot learning [6.559037166322981]
距離学習と呼ばれる数ショットの学習手法の1つは、画像のペアが同じカテゴリに属しているかどうかを判断するために、まず遠距離計量を学習することで、この課題に対処する。
本稿では, インスタンスの埋め込みの類似性を正確に, グローバルかつ効率的に測定できる, Bi-attention Network という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T07:39:10Z) - Multi-scale and Cross-scale Contrastive Learning for Semantic
Segmentation [5.281694565226513]
セグメンテーションネットワークによって抽出されたマルチスケール特徴の識別能力を高めるために,コントラスト学習を適用した。
まず、エンコーダのマルチスケール表現を共通の特徴空間にマッピングすることにより、教師付き局所言語制約の新しい形式をインスタンス化する。
論文 参考訳(メタデータ) (2022-03-25T01:24:24Z) - Semi-Supervised Few-Shot Classification with Deep Invertible Hybrid
Models [4.189643331553922]
半教師付き小ショット分類のための潜在空間レベルで識別学習と生成学習を統合するディープ・インバーチブルハイブリッドモデルを提案する。
我々の主な独創性は、これらのコンポーネントを潜在空間レベルで統合することであり、過度な適合を防ぐのに有効である。
論文 参考訳(メタデータ) (2021-05-22T05:55:16Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - BCFNet: A Balanced Collaborative Filtering Network with Attention
Mechanism [106.43103176833371]
協調フィルタリング(CF)ベースの推奨方法が広く研究されている。
BCFNet(Balanced Collaborative Filtering Network)という新しい推薦モデルを提案する。
さらに注意機構は、暗黙のフィードバックの中で隠れた情報をよりよく捉え、ニューラルネットワークの学習能力を強化するように設計されている。
論文 参考訳(メタデータ) (2021-03-10T14:59:23Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - HALO: Learning to Prune Neural Networks with Shrinkage [5.283963846188862]
ディープニューラルネットワークは、構造化されていないデータから豊富な特徴セットを抽出することにより、さまざまなタスクで最先端のパフォーマンスを実現する。
提案手法は,(1)ネットワークプルーニング,(2)スパシティ誘導ペナルティによるトレーニング,(3)ネットワークの重みと連動してバイナリマスクをトレーニングすることである。
トレーニング可能なパラメータを用いて、与えられたネットワークの重みを適応的に分散化することを学ぶ階層適応ラッソ(Hierarchical Adaptive Lasso)という新しいペナルティを提案する。
論文 参考訳(メタデータ) (2020-08-24T04:08:48Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。