論文の概要: Meta-ticket: Finding optimal subnetworks for few-shot learning within
randomly initialized neural networks
- arxiv url: http://arxiv.org/abs/2205.15619v1
- Date: Tue, 31 May 2022 09:03:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 12:03:27.041103
- Title: Meta-ticket: Finding optimal subnetworks for few-shot learning within
randomly initialized neural networks
- Title(参考訳): meta-ticket:ランダム初期化ニューラルネットワークにおける最小ショット学習のための最適サブネットワークの探索
- Authors: Daiki Chijiwa, Shin'ya Yamaguchi, Atsutoshi Kumagai, Yasutoshi Ida
- Abstract要約: ニューラルネットワーク(NN)のためのわずかなショットラーニングは、少数のデータでNNをトレーニングすることを目的とした重要な問題である。
本稿では,メタチケットと呼ばれるメタ学習手法を提案し,ランダムにNN内の数発の学習に最適なスパースワークを提案する。
- 参考スコア(独自算出の注目度): 16.146036509065247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning for neural networks (NNs) is an important problem that aims
to train NNs with a few data. The main challenge is how to avoid overfitting
since over-parameterized NNs can easily overfit to such small dataset. Previous
work (e.g. MAML by Finn et al. 2017) tackles this challenge by meta-learning,
which learns how to learn from a few data by using various tasks. On the other
hand, one conventional approach to avoid overfitting is restricting hypothesis
spaces by endowing sparse NN structures like convolution layers in computer
vision. However, although such manually-designed sparse structures are
sample-efficient for sufficiently large datasets, they are still insufficient
for few-shot learning. Then the following questions naturally arise: (1) Can we
find sparse structures effective for few-shot learning by meta-learning? (2)
What benefits will it bring in terms of meta-generalization? In this work, we
propose a novel meta-learning approach, called Meta-ticket, to find optimal
sparse subnetworks for few-shot learning within randomly initialized NNs. We
empirically validated that Meta-ticket successfully discover sparse subnetworks
that can learn specialized features for each given task. Due to this task-wise
adaptation ability, Meta-ticket achieves superior meta-generalization compared
to MAML-based methods especially with large NNs.
- Abstract(参考訳): ニューラルネットワーク(NN)のためのわずかなショット学習は、少数のデータでNNをトレーニングすることを目的とした重要な問題である。
大きな課題は、オーバーパラメータのnnがこのような小さなデータセットに簡単にオーバーフィットできるため、オーバーフィットを避ける方法である。
これまでの作業(例えばFinnらによるMAMLなど)では、さまざまなタスクを使用していくつかのデータから学習する方法を学ぶメタラーニングによって、この課題に対処している。
一方で、オーバーフィッティングを避けるための従来のアプローチは、コンピュータビジョンにおける畳み込み層のようなスパースnn構造を内挿することで仮説空間を制限することである。
しかし、手動で設計したスパース構造は十分に大きなデータセットではサンプリング効率が良いが、数発の学習では不十分である。
1)メタラーニングによる数発学習に有効なスパース構造を見いだせるか?
(2)メタ一般化の観点で、どのようなメリットをもたらすのか?
そこで本研究では,無作為に初期化したNNにおいて,数発の学習に最適なスパースサブネットワークを見つけるメタティケットというメタラーニング手法を提案する。
我々は、meta-ticketが与えられたタスクごとに特別な特徴を学習できるスパースサブネットワークをうまく発見できることを実証的に検証した。
このタスクワイド適応能力により、特に大規模なNNでは、MAMLベースの手法に比べてメタ汎用性が優れている。
関連論文リスト
- CPT: Competence-progressive Training Strategy for Few-shot Node Classification [11.17199104891692]
グラフニューラルネットワーク(GNN)はノード分類に大きな進歩を遂げているが、その成功はトレーニングデータ内のクラス毎の十分なラベル付きノードに依存している。
伝統的なエピソディックなメタラーニングアプローチはこの領域で有望であるが、固有の制限に直面している。
メタラーナーのプログレッシブ・コンピテンスにタスクの難易度を合わせる2段階のカリキュラム学習手法であるCPTを紹介する。
論文 参考訳(メタデータ) (2024-02-01T09:36:56Z) - An Initialization Schema for Neuronal Networks on Tabular Data [0.9155684383461983]
本稿では,二項ニューラルネットワークが表データに対して有効に利用できることを示す。
提案手法はニューラルネットワークの最初の隠蔽層を初期化するための単純だが効果的なアプローチを示す。
我々は、複数の公開データセットに対する我々のアプローチを評価し、他のニューラルネットワークベースのアプローチと比較して、改善されたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-11-07T13:52:35Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - What Can We Learn from Unlearnable Datasets? [107.12337511216228]
学習不可能なデータセットは、ディープニューラルネットワークの一般化を防ぐことによって、データのプライバシを保護する可能性がある。
学習不可能なデータセットでトレーニングされたニューラルネットワークは、一般化には役に立たない単純なルールであるショートカットのみを学ぶと広く信じられている。
これとは対照的に,ネットワークは高いテスト性能を期待できる有用な特徴を実際に学習することができ,画像保護が保証されていないことを示唆している。
論文 参考訳(メタデータ) (2023-05-30T17:41:35Z) - Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - You Can Have Better Graph Neural Networks by Not Training Weights at
All: Finding Untrained GNNs Tickets [105.24703398193843]
グラフニューラルネットワーク(GNN)の未訓練作業はまだ謎のままだ。
得られた未学習作品によって,GNNの過度なスムース化問題を大幅に軽減できることを示す。
また,そのような未学習作業が,入力摂動の分布外検出と堅牢性に優れていることも観察した。
論文 参考訳(メタデータ) (2022-11-28T14:17:36Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Generating meta-learning tasks to evolve parametric loss for
classification learning [1.1355370218310157]
既存のメタ学習アプローチでは、メタモデルをトレーニングするための学習タスクは通常、公開データセットから収集される。
本稿では,ランダムに生成したメタ学習タスクに基づくメタ学習手法を提案し,ビッグデータに基づく分類学習におけるパラメトリックな損失を求める。
論文 参考訳(メタデータ) (2021-11-20T13:07:55Z) - It's Hard for Neural Networks To Learn the Game of Life [4.061135251278187]
最近の研究では、ニューラルネットワークは、ソリューションに迅速に収束する"ロテリチケット"のラッキーな初期重みに依存していることが示唆されている。
本研究では,2次元セル・オートマトン・コンウェイのゲーム・オブ・ライフのn段階を予測するために訓練された小さな畳み込みネットワークについて検討する。
このタスクでトレーニングされたこのアーキテクチャのネットワークは、ほとんど収束しない。
論文 参考訳(メタデータ) (2020-09-03T00:47:08Z) - Meta Cyclical Annealing Schedule: A Simple Approach to Avoiding
Meta-Amortization Error [50.83356836818667]
循環型アニーリングスケジュールとMMD基準を用いた新しいメタレギュラー化目標を構築した。
実験の結果,本手法は標準的なメタ学習アルゴリズムよりもかなり優れていることがわかった。
論文 参考訳(メタデータ) (2020-03-04T04:43:16Z) - Side-Tuning: A Baseline for Network Adaptation via Additive Side
Networks [95.51368472949308]
適応は、トレーニングデータが少ない場合や、ネットワークのプリエンプションをエンコードしたい場合などに有効である。
本稿では,サイドチューニングという簡単な方法を提案する。
論文 参考訳(メタデータ) (2019-12-31T18:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。