論文の概要: DMN4: Few-shot Learning via Discriminative Mutual Nearest Neighbor
Neural Network
- arxiv url: http://arxiv.org/abs/2103.08160v1
- Date: Mon, 15 Mar 2021 06:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 14:23:53.743289
- Title: DMN4: Few-shot Learning via Discriminative Mutual Nearest Neighbor
Neural Network
- Title(参考訳): DMN4: 識別的近接近傍ニューラルネットワークによる短ショット学習
- Authors: Yang Liu, Tu Zheng, Jie Song, Deng Cai, Xiaofei He
- Abstract要約: 少ないショット学習は、低データレギュレーション下でのイメージの分類を目的としている。
近年の業績は深層ディスクリプタを用いて有望なパフォーマンスを達成している。
各タスクに最も関連するクエリ記述子を明示的に選択するために、MNN(Mutual Nearest Neighbor)関係を提案します。
- 参考スコア(独自算出の注目度): 40.18613107849442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning (FSL) aims to classify images under low-data regimes, where
the conventional pooled global representation is likely to lose useful local
characteristics. Recent work has achieved promising performances by using deep
descriptors. They generally take all deep descriptors from neural networks into
consideration while ignoring that some of them are useless in classification
due to their limited receptive field, e.g., task-irrelevant descriptors could
be misleading and multiple aggregative descriptors from background clutter
could even overwhelm the object's presence. In this paper, we argue that a
Mutual Nearest Neighbor (MNN) relation should be established to explicitly
select the query descriptors that are most relevant to each task and discard
less relevant ones from aggregative clutters in FSL. Specifically, we propose
Discriminative Mutual Nearest Neighbor Neural Network (DMN4) for FSL. Extensive
experiments demonstrate that our method not only qualitatively selects
task-relevant descriptors but also quantitatively outperforms the existing
state-of-the-arts by a large margin of 1.8~4.9% on fine-grained CUB, a
considerable margin of 1.4~2.2% on both supervised and semi-supervised
miniImagenet, and ~1.4% on challenging tieredimagenet.
- Abstract(参考訳): FSL(Few-shot Learning)は、従来のプールされたグローバル表現が有用なローカル特性を失う可能性がある低データ体制下での画像の分類を目的とする。
近年の業績は深層ディスクリプタを用いて有望なパフォーマンスを達成している。
彼らは一般に、ニューラルネットワークからの深い記述子をすべて考慮し、それらのいくつかは、その限定された受容領域のために分類において役に立たないことを無視し、例えば、タスク非関連記述子は誤解を招く可能性があり、背景クラッターからの複数の集約記述子はオブジェクトの存在を圧倒する可能性さえある。
本稿では、各タスクに最も関連するクエリ記述子を明示的に選択し、FSLの集約的クラッタから関連性の低いものを破棄するために、MNN(Mutual Nearest Neighbor)関係を確立するべきであると論じる。
具体的には、FSLの識別的近接近傍ニューラルネットワーク(DMN4)を提案する。
本手法は, タスク関連ディスクリプタを定性的に選択するだけでなく, CUBでは1.8~4.9%, miniImagenetでは1.4~2.2%, 階層イメージネットでは1.4%と, 従来の技術水準を定量的に上回っていることを実証した。
関連論文リスト
- Nearest Neighbor-Based Contrastive Learning for Hyperspectral and LiDAR
Data Classification [45.026868970899514]
本稿では,Nearest Neighbor-based Contrastive Learning Network (NNCNet)を提案する。
具体的には,近隣地域間のセマンティック関係を強化した近傍データ拡張手法を提案する。
さらに,HSIデータとLiDARデータ間の2次・高次特徴相互作用を生かしたバイリニアアテンションモジュールを設計する。
論文 参考訳(メタデータ) (2023-01-09T13:43:54Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Denoised Non-Local Neural Network for Semantic Segmentation [18.84185406522064]
クラス間ノイズとクラス内ノイズをそれぞれ除去するデノナイズド非ローカネットワーク(デノナイズドNL)を提案する。
提案したNLは,都市景観における83.5%,46.69% mIoU,ADE20Kの最先端性能を達成できる。
論文 参考訳(メタデータ) (2021-10-27T06:16:31Z) - Dual-Neighborhood Deep Fusion Network for Point Cloud Analysis [7.696435157444049]
この問題に対処するためにDNDFN(Dual-Neighborhood Deep Fusion Network)が提案されている。
DNDFNには2つの重要なポイントがある。一つは地域とグローバルな地区の組み合わせである。
TN学習と組み合わせて、よりリッチな近隣情報を得る。
もう1つは、情報伝達畳み込み(IT-Conv)であり、2点間の構造情報を学習し、それを通して特徴を伝達することができる。
論文 参考訳(メタデータ) (2021-08-20T15:37:13Z) - External-Memory Networks for Low-Shot Learning of Targets in
Forward-Looking-Sonar Imagery [8.767175335575386]
本稿では,前向きソナー(FLS)画像におけるリアルタイム・データ効率の高いターゲット分析のためのメモリベースフレームワークを提案する。
我々のフレームワークは、DenseNetにインスパイアされた小さなネットワークを用いて、画像から識別不能な詳細を最初に除去することに依存している。
次に,フィルタ画像から新しいニューラルRAMベースの畳み込みマッチングネットワーク NRMN をカスケードして,低ショット目標認識を行う。
論文 参考訳(メタデータ) (2021-07-22T07:50:44Z) - Discriminative Nearest Neighbor Few-Shot Intent Detection by
Transferring Natural Language Inference [150.07326223077405]
データ不足を緩和するためには、ほとんどショットラーニングが注目を集めている。
深部自己注意を伴う識別的近傍分類を提示する。
自然言語推論モデル(NLI)を変換することで識別能力を高めることを提案する。
論文 参考訳(メタデータ) (2020-10-25T00:39:32Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z) - Weakly-Supervised Semantic Segmentation by Iterative Affinity Learning [86.45526827323954]
弱教師付きセマンティックセグメンテーションは、トレーニングのためにピクセル単位のラベル情報が提供されないため、難しい課題である。
このようなペア関係を学習するための反復アルゴリズムを提案する。
本稿では,提案アルゴリズムが最先端手法に対して好適に動作することを示す。
論文 参考訳(メタデータ) (2020-02-19T10:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。