論文の概要: Learning Prototype-oriented Set Representations for Meta-Learning
- arxiv url: http://arxiv.org/abs/2110.09140v1
- Date: Mon, 18 Oct 2021 09:49:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 14:35:34.197083
- Title: Learning Prototype-oriented Set Representations for Meta-Learning
- Title(参考訳): メタラーニングのためのプロトタイプ指向集合表現の学習
- Authors: Dandan Guo, Long Tian, Minghe Zhang, Mingyuan Zhou, Hongyuan Zha
- Abstract要約: 集合構造データから学ぶことは、近年注目を集めている根本的な問題である。
本稿では,既存の要約ネットワークを改善するための新しい最適輸送方式を提案する。
さらに、少数ショット分類と暗黙的メタ生成モデリングの事例にインスタンス化する。
- 参考スコア(独自算出の注目度): 85.19407183975802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from set-structured data is a fundamental problem that has recently
attracted increasing attention, where a series of summary networks are
introduced to deal with the set input. In fact, many meta-learning problems can
be treated as set-input tasks. Most existing summary networks aim to design
different architectures for the input set in order to enforce permutation
invariance. However, scant attention has been paid to the common cases where
different sets in a meta-distribution are closely related and share certain
statistical properties. Viewing each set as a distribution over a set of global
prototypes, this paper provides a novel optimal transport (OT) based way to
improve existing summary networks. To learn the distribution over the global
prototypes, we minimize its OT distance to the set empirical distribution over
data points, providing a natural unsupervised way to improve the summary
network. Since our plug-and-play framework can be applied to many meta-learning
problems, we further instantiate it to the cases of few-shot classification and
implicit meta generative modeling. Extensive experiments demonstrate that our
framework significantly improves the existing summary networks on learning more
powerful summary statistics from sets and can be successfully integrated into
metric-based few-shot classification and generative modeling applications,
providing a promising tool for addressing set-input and meta-learning problems.
- Abstract(参考訳): 集合構造データからの学習は、集合入力を扱うために一連の要約ネットワークを導入し、近年注目を集めている基本的な問題である。
実際、多くのメタ学習問題はセット入力タスクとして扱うことができる。
既存の要約ネットワークの多くは、置換不変性を強制するために入力セットの異なるアーキテクチャを設計することを目的としている。
しかし、メタ分布における異なる集合が密接に関連し、ある統計的性質を共有する場合において、注意が払われている。
本稿では,各集合をグローバルプロトタイプの集合上の分布として捉え,既存のサマリーネットワークを改善するための新しい最適輸送(ot)方式を提案する。
グローバルプロトタイプ上での分布を学習するために、そのot距離をデータポイント上の経験的分布まで最小化し、サマリーネットワークを改善する自然な教師なしの方法を提供する。
我々のプラグイン・アンド・プレイ・フレームワークは多くのメタ学習問題に適用できるので、少数ショットの分類や暗黙のメタ生成モデリングの事例にも当てはまる。
広範な実験により,既存のサマリネットワークにおいて,集合からより強力なサマリ統計を学習し,メトリクスベースのマイナショット分類および生成モデリングアプリケーションにうまく統合できることが示され,集合入力およびメタラーニング問題に対処する有望なツールが提供された。
関連論文リスト
- Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - Improving Meta-Learning Generalization with Activation-Based
Early-Stopping [12.299371455015239]
数ショットの学習のためのメタラーニングアルゴリズムは、少数の例だけで新しいタスクに一般化できるニューラルネットワークを訓練することを目的としている。
早期停止は、新しいタスク分布に最適な一般化に達すると、モデルトレーニングを停止させる。
これは、メタテストセットが異なるターゲットデータセットから来る、数ショットの転送学習設定で問題となる。
論文 参考訳(メタデータ) (2022-08-03T22:55:45Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Set Representation Learning with Generalized Sliced-Wasserstein
Embeddings [22.845403993200932]
集合構造データから表現を学習するための幾何学的解釈可能なフレームワークを提案する。
特に、確率測度からのサンプルとして集合の要素を扱い、一般化スライスワッサーシュタインに対する正確なユークリッド埋め込みを提案する。
我々は,複数の教師付きおよび教師なし集合学習タスクに関する提案フレームワークを評価し,最先端集合表現学習アプローチに対するその優位性を実証する。
論文 参考訳(メタデータ) (2021-03-05T19:00:34Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Few-Shot Unsupervised Continual Learning through Meta-Examples [21.954394608030388]
教師なしメタコンチネンタル学習とタスクのバランスが取れない新しい複雑な設定を導入する。
我々は、破滅的な忘れを同時に軽減し、新しいタスクへの一般化を優先するメタラーニング手法を利用する。
数ショットの学習ベンチマークによる実験結果から, 教師付きケースと比較して, 競争性能が向上した。
論文 参考訳(メタデータ) (2020-09-17T07:02:07Z) - Improving Generalization in Meta-learning via Task Augmentation [69.83677015207527]
本稿ではMetaMixとChannel Shuffleの2つのタスク拡張手法を提案する。
MetaMixとChannel Shuffleはどちらも、多くのデータセットにまたがる大きなマージンによって、最先端の結果を上回っている。
論文 参考訳(メタデータ) (2020-07-26T01:50:42Z) - Meta-learning framework with applications to zero-shot time-series
forecasting [82.61728230984099]
この研究は幅広いメタラーニングフレームワークを使って肯定的な証拠を提供する。
残余接続はメタラーニング適応機構として機能する。
我々は、ソースTSデータセット上でニューラルネットワークをトレーニングし、異なるターゲットTSデータセット上で再トレーニングすることなくデプロイできることを示します。
論文 参考訳(メタデータ) (2020-02-07T16:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。