論文の概要: A Model of One-Shot Generalization
- arxiv url: http://arxiv.org/abs/2205.14553v1
- Date: Sun, 29 May 2022 01:41:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-04 16:31:38.126535
- Title: A Model of One-Shot Generalization
- Title(参考訳): ワンショット一般化のモデル
- Authors: Thomas Laurent, James H. von Brecht, and Xavier Bresson
- Abstract要約: ワンショット一般化(One-shot generalization)とは、ひとつのタスク内で伝達学習を行うアルゴリズムの能力である。
データモデルに対する最も直接的なニューラルネットワークアーキテクチャは、ほぼ完璧にワンショットの一般化を実行することを示す。
- 参考スコア(独自算出の注目度): 6.155604731137828
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We provide a theoretical framework to study a phenomenon that we call
one-shot generalization. This phenomenon refers to the ability of an algorithm
to perform transfer learning within a single task, meaning that it correctly
classifies a test point that has a single exemplar in the training set. We
propose a simple data model and use it to study this phenomenon in two ways.
First, we prove a non-asymptotic base-line -- kernel methods based on
nearest-neighbor classification cannot perform one-shot generalization,
independently of the choice of the kernel and the size of the training set.
Second, we empirically show that the most direct neural network architecture
for our data model performs one-shot generalization almost perfectly. This
stark differential leads us to believe that the one-shot generalization
mechanism is partially responsible for the empirical success of neural
networks.
- Abstract(参考訳): ワンショット一般化と呼ばれる現象を研究するための理論的枠組みを提供する。
この現象は、アルゴリズムが1つのタスク内で転送学習を実行する能力を指しており、トレーニングセットに1つの例があるテストポイントを正しく分類することを意味する。
簡単なデータモデルを提案し、この現象を2つの方法で研究する。
まず,非漸近的ベースライン -- 最接近分類に基づくカーネルメソッドは,カーネルの選択やトレーニングセットのサイズとは無関係に,ワンショット一般化はできないことを証明した。
第2に、データモデルに対する最も直接的なニューラルネットワークアーキテクチャが、ほぼ完璧にワンショット一般化できることを実証的に示します。
この極端な差は、ワンショット一般化メカニズムがニューラルネットワークの実証的成功に部分的に責任があると信じている。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Non-Parametric Representation Learning with Kernels [6.944372188747803]
いくつかのカーネルベース表現学習手法を導入・分析する。
教師付きカーネルマシンの古典的表現定理は、(自己教師型)表現学習には必ずしも適用されない。
我々は,これらの手法の性能を,ニューラルネットワークベースモデルと比較して実証的に評価した。
論文 参考訳(メタデータ) (2023-09-05T08:14:25Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Reconciliation of Pre-trained Models and Prototypical Neural Networks in
Few-shot Named Entity Recognition [35.34238362639678]
本研究では,このようなミスマッチを経験的・理論的根拠と整合させる一線符号正規化法を提案する。
我々の研究は、数発のエンティティ認識における一般的な問題に対処するための分析的な視点も提供します。
論文 参考訳(メタデータ) (2022-11-07T02:33:45Z) - With Greater Distance Comes Worse Performance: On the Perspective of
Layer Utilization and Model Generalization [3.6321778403619285]
ディープニューラルネットワークの一般化は、マシンラーニングにおける主要なオープンな問題の1つだ。
初期のレイヤは一般的に、トレーニングデータとテストデータの両方のパフォーマンスに関する表現を学びます。
より深いレイヤは、トレーニングのリスクを最小限に抑え、テストや不正なラベル付けされたデータとうまく連携できない。
論文 参考訳(メタデータ) (2022-01-28T05:26:32Z) - How does unlabeled data improve generalization in self-training? A
one-hidden-layer theoretical analysis [93.37576644429578]
この研究は、既知の反復的自己学習パラダイムに関する最初の理論的分析を確立する。
トレーニング収束と一般化能力の両面で、ラベルなしデータの利点を実証する。
また、浅部ニューラルネットワークから深部ニューラルネットワークへの実験は、我々の確立した自己学習に関する理論的知見の正しさを正当化するものである。
論文 参考訳(メタデータ) (2022-01-21T02:16:52Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Uniform Convergence, Adversarial Spheres and a Simple Remedy [40.44709296304123]
これまでの研究は、統一収束の一般的な枠組みと、ニューラルネットワークの一般化を説明する能力に疑問を投げかけてきた。
我々は、無限大モデルのレンズを通して、以前に研究されたデータセットの広範な理論的検討を行う。
我々は、ニューラルタンジェントカーネル(NTK)も同じ現象に苦しむことを証明し、その起源を明らかにします。
論文 参考訳(メタデータ) (2021-05-07T20:23:01Z) - The Gaussian equivalence of generative models for learning with shallow
neural networks [30.47878306277163]
本研究では,事前学習した生成モデルから得られたデータに基づいて学習したニューラルネットワークの性能について検討する。
この等価性を裏付ける厳密で解析的で数値的な証拠を3本提供します。
これらの結果は、現実的なデータを持つ機械学習モデルの理論研究への有効な道を開く。
論文 参考訳(メタデータ) (2020-06-25T21:20:09Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。