論文の概要: Less is More: Rethinking Few-Shot Learning and Recurrent Neural Nets
- arxiv url: http://arxiv.org/abs/2209.14267v1
- Date: Wed, 28 Sep 2022 17:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:30:23.583588
- Title: Less is More: Rethinking Few-Shot Learning and Recurrent Neural Nets
- Title(参考訳): less is more: 最小限の学習とリカレントニューラルネットを再考する
- Authors: Deborah Pereg, Martin Villiger, Brett Bouma, Polina Golland
- Abstract要約: 情報理論AEPに基づく信頼性学習の理論的保証を提供する。
次に、高効率なリカレントニューラルネット(RNN)フレームワークに焦点を当て、少数ショット学習のための縮小エントロピーアルゴリズムを提案する。
実験結果から,学習モデルのサンプル効率,一般化,時間的複雑さを向上する可能性が示唆された。
- 参考スコア(独自算出の注目度): 2.824895388993495
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The statistical supervised learning framework assumes an input-output set
with a joint probability distribution that is reliably represented by the
training dataset. The learner is then required to output a prediction rule
learned from the training dataset's input-output pairs. In this work, we
provide meaningful insights into the asymptotic equipartition property (AEP)
\citep{Shannon:1948} in the context of machine learning, and illuminate some of
its potential ramifications for few-shot learning. We provide theoretical
guarantees for reliable learning under the information-theoretic AEP, and for
the generalization error with respect to the sample size. We then focus on a
highly efficient recurrent neural net (RNN) framework and propose a
reduced-entropy algorithm for few-shot learning. We also propose a mathematical
intuition for the RNN as an approximation of a sparse coding solver. We verify
the applicability, robustness, and computational efficiency of the proposed
approach with image deblurring and optical coherence tomography (OCT) speckle
suppression. Our experimental results demonstrate significant potential for
improving learning models' sample efficiency, generalization, and time
complexity, that can therefore be leveraged for practical real-time
applications.
- Abstract(参考訳): 統計的教師付き学習フレームワークは、トレーニングデータセットで確実に表現される連立確率分布を持つ入力出力セットを仮定する。
学習者は、トレーニングデータセットの入出力ペアから学んだ予測ルールを出力する必要がある。
本研究は,機械学習の文脈における漸近的均質性 (AEP) \citep{Shannon:1948} に関する有意義な洞察を提供し,その潜在的影響を数発の学習に照らすものである。
本稿では,情報理論AEPに基づく信頼性学習の理論的保証と,サンプルサイズに関する一般化誤差について述べる。
次に,高効率なリカレントニューラルネット(rnn)フレームワークに着目し,少数ショット学習のための縮小エントロピーアルゴリズムを提案する。
また,スパース符号化解法の近似としてRNNの数学的直観を提案する。
提案手法の適用性,ロバスト性,計算効率を画像デブラリングおよび光コヒーレンストモグラフィ(oct)スペックル抑制法を用いて検証した。
実験の結果,学習モデルのサンプル効率,一般化,時間複雑性が向上し,現実的なリアルタイムアプリケーションに活用できる可能性が示唆された。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Automatic debiasing of neural networks via moment-constrained learning [0.0]
偏差推定器の回帰関数をネーティブに学習し,対象関数のサンプル平均値を取得する。
本稿では,自動脱バイアスの欠点に対処する新しいRR学習手法として,モーメント制約学習を提案する。
論文 参考訳(メタデータ) (2024-09-29T20:56:54Z) - A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Surprisal Driven $k$-NN for Robust and Interpretable Nonparametric
Learning [1.4293924404819704]
我々は情報理論の観点から、隣り合う従来のアルゴリズムに新たな光を当てた。
単一モデルを用いた分類,回帰,密度推定,異常検出などのタスクに対する頑健で解釈可能なフレームワークを提案する。
我々の研究は、分類と異常検出における最先端の成果を達成することによって、アーキテクチャの汎用性を示す。
論文 参考訳(メタデータ) (2023-11-17T00:35:38Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - A Free Lunch with Influence Functions? Improving Neural Network
Estimates with Concepts from Semiparametric Statistics [41.99023989695363]
ニューラルネットワークや機械学習アルゴリズムの改善に使用される半パラメトリック理論の可能性を探る。
本稿では,単一アーキテクチャを用いてアンサンブルの柔軟性と多様性を求めるニューラルネットワーク手法であるMultiNetを提案する。
論文 参考訳(メタデータ) (2022-02-18T09:35:51Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Physics Informed Deep Kernel Learning [24.033468062984458]
物理インフォームドディープカーネル学習(PI-DKL)は、遅延源を持つ微分方程式で表される物理知識を利用する。
効率的かつ効果的な推論のために、潜伏変数を疎外し、崩壊したモデルエビデンスローバウンド(ELBO)を導出する。
論文 参考訳(メタデータ) (2020-06-08T22:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。