論文の概要: Self-Denoising Neural Networks for Few Shot Learning
- arxiv url: http://arxiv.org/abs/2110.13386v1
- Date: Tue, 26 Oct 2021 03:28:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 13:51:39.448625
- Title: Self-Denoising Neural Networks for Few Shot Learning
- Title(参考訳): ショット学習のための自己否定型ニューラルネットワーク
- Authors: Steven Schwarcz, Sai Saketh Rambhatla, Rama Chellappa
- Abstract要約: 既存のニューラルアーキテクチャの複数の段階でノイズを追加すると同時に、この付加ノイズに対して堅牢であるように学習する新しいトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代の畳み込みニューラルネットワークに容易に適用できます。
- 参考スコア(独自算出の注目度): 66.38505903102373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a new architecture for few shot learning, the
task of teaching a neural network from as few as one or five labeled examples.
Inspired by the theoretical results of Alaine et al that Denoising Autoencoders
refine features to lie closer to the true data manifold, we present a new
training scheme that adds noise at multiple stages of an existing neural
architecture while simultaneously learning to be robust to this added noise.
This architecture, which we call a Self-Denoising Neural Network (SDNN), can be
applied easily to most modern convolutional neural architectures, and can be
used as a supplement to many existing few-shot learning techniques. We
empirically show that SDNNs out-perform previous state-of-the-art methods for
few shot image recognition using the Wide-ResNet architecture on the
\textit{mini}ImageNet, tiered-ImageNet, and CIFAR-FS few shot learning
datasets. We also perform a series of ablation experiments to empirically
justify the construction of the SDNN architecture. Finally, we show that SDNNs
even improve few shot performance on the task of human action detection in
video using experiments on the ActEV SDL Surprise Activities challenge.
- Abstract(参考訳): 本稿では,1つまたは5つのラベル付き例からニューラルネットワークを教えるタスクである,ショット学習の少ない新しいアーキテクチャを提案する。
Alaineらの理論的な結果から着想を得たオートエンコーダは、真のデータ多様体に近い特徴を洗練し、既存のニューラルアーキテクチャの複数段階でノイズを付加すると同時に、この付加ノイズに頑健であることを学習する新たなトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代のほとんどの畳み込みニューラルネットワークに容易に適用でき、既存の数発の学習技術の補足として使用することができる。
SDNNが従来の画像認識手法より優れていることを実証的に示しており、Wide-ResNetアーキテクチャは、‘textit{mini} ImageNet, tiered-ImageNet, CIFAR-FS few shot learning data で示している。
また,SDNNアーキテクチャの構築を実証的に正当化するために,一連のアブレーション実験を行った。
最後に, SDNNは, ActEV SDLサプライズアクティビティ(SDLサプライズアクティビティ)の課題において, ビデオ中のヒューマンアクション検出のタスクにおいて, ショット性能が向上することを示した。
関連論文リスト
- DQNAS: Neural Architecture Search using Reinforcement Learning [6.33280703577189]
畳み込みニューラルネットワークは様々な画像関連アプリケーションで使われている。
本稿では,強化学習の原則を取り入れた,ニューラルネットワークの自動探索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-17T04:01:47Z) - Practical Blind Image Denoising via Swin-Conv-UNet and Data Synthesis [148.16279746287452]
本研究では,残差畳み込み層の局所モデリング能力とスウィントランスブロックの非局所モデリング能力を組み込むスウィンコンブブロックを提案する。
トレーニングデータ合成のために,異なる種類のノイズを考慮した実用的なノイズ劣化モデルの設計を行う。
AGWN除去と実画像復号化の実験は、新しいネットワークアーキテクチャ設計が最先端の性能を達成することを実証している。
論文 参考訳(メタデータ) (2022-03-24T18:11:31Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z) - Multi-fidelity Neural Architecture Search with Knowledge Distillation [69.09782590880367]
ニューラルアーキテクチャ探索のためのベイズ的多重忠実度法 MF-KD を提案する。
知識蒸留は損失関数に追加され、ネットワークが教師ネットワークを模倣することを強制する用語となる。
このような変化した損失関数を持ついくつかのエポックに対するトレーニングは、ロジスティックな損失を持ついくつかのエポックに対するトレーニングよりも、より優れたニューラルアーキテクチャの選択につながることを示す。
論文 参考訳(メタデータ) (2020-06-15T12:32:38Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Superkernel Neural Architecture Search for Image Denoising [4.633161758939184]
我々は、画像デノゲーションである密集予測タスクのためにNASを探索することに注力する。
コストのかかるトレーニング手順のため、画像強調のためのほとんどのNASソリューションは強化学習や進化的アルゴリズム探索に依存している。
本稿では,高密度予測のためのモデルの高速単発訓練を可能にするスーパーカーネル手法の効率的な実装について紹介する。
画像復調のためのSIDD+ベンチマークにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2020-04-19T14:52:22Z) - Automated Pavement Crack Segmentation Using U-Net-based Convolutional
Neural Network [10.48658033897047]
本稿では,畳み込みニューラルネットワークを用いた深層学習手法を提案する。
私たちのアプローチは、他の機械学習技術と比較して、最小限の機能エンジニアリングを必要とします。
提案手法は,CFDデータセットで96%,Crack500データセットで73%のF1スコアを達成し,これらのデータセットでテストされた他のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-01-07T07:18:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。