論文の概要: Learning Half-Spaces and other Concept Classes in the Limit with
Iterative Learners
- arxiv url: http://arxiv.org/abs/2010.03227v2
- Date: Wed, 28 Apr 2021 10:57:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 22:44:32.255845
- Title: Learning Half-Spaces and other Concept Classes in the Limit with
Iterative Learners
- Title(参考訳): 反復学習者の限界における半空間学習と他の概念クラス
- Authors: Ardalan Khazraei, Timo K\"otzing, Karen Seidel
- Abstract要約: 情報提供者からの反復学習には,非U字型学習が強く制限されていることを示す。
また,半空間の概念クラスの学習可能性についても検討し,半空間の集合を情報提供者から学習するための構成的反復アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to model an efficient learning paradigm, iterative learning
algorithms access data one by one, updating the current hypothesis without
regress to past data. Past research on iterative learning analyzed for example
many important additional requirements and their impact on iterative learners.
In this paper, our results are twofold. First, we analyze the relative learning
power of various settings of iterative learning, including learning from text
and from informant, as well as various further restrictions, for example we
show that strongly non-U-shaped learning is restrictive for iterative learning
from informant. Second, we investigate the learnability of the concept class of
half-spaces and provide a constructive iterative algorithm to learn the set of
half-spaces from informant.
- Abstract(参考訳): 効率的な学習パラダイムをモデル化するために、反復学習アルゴリズムはデータを1つずつアクセスし、過去のデータに回帰することなく現在の仮説を更新する。
反復学習に関する過去の研究は、例えば、多くの重要な追加要件と反復学習者への影響を分析した。
本稿では,2つの結果について述べる。
まず,テキストからの学習や情報提供者からの学習を含む,反復学習のさまざまな設定の相対学習能力と,さらに様々な制約を分析し,例えば,強い非u字型学習は情報提供者からの反復学習に限定的であることを示す。
次に,半空間の概念クラスの学習可能性を調査し,インフォメータから半空間の集合を学習するための構成的反復アルゴリズムを提案する。
関連論文リスト
- When Meta-Learning Meets Online and Continual Learning: A Survey [39.53836535326121]
メタ学習は学習アルゴリズムを最適化するためのデータ駆動型アプローチである。
継続的な学習とオンライン学習はどちらも、ストリーミングデータでモデルを漸進的に更新する。
本稿では,一貫した用語と形式記述を用いて,様々な問題設定を整理する。
論文 参考訳(メタデータ) (2023-11-09T09:49:50Z) - Advancing continual lifelong learning in neural information retrieval: definition, dataset, framework, and empirical evaluation [3.2340528215722553]
連続的なニューラル情報検索の系統的なタスク定式化を示す。
包括的連続神経情報検索フレームワークを提案する。
経験的評価は,提案フレームワークが神経情報検索における破滅的な忘れ込みを効果的に防止できることを示唆している。
論文 参考訳(メタデータ) (2023-08-16T14:01:25Z) - Subspace Distillation for Continual Learning [27.22147868163214]
本稿では,ニューラルネットワークの多様体構造を考慮した知識蒸留手法を提案する。
部分空間を用いたモデリングは、雑音に対するロバスト性など、いくつかの興味深い特性を提供することを示した。
実験により,提案手法は,いくつかの挑戦的データセットにおいて,様々な連続学習法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-07-31T05:59:09Z) - Ticketed Learning-Unlearning Schemes [57.89421552780526]
そこで我々は,学習のためのチケット付きモデルを提案する。
広義のコンセプトクラスに対して,空間効率のよいチケット付き学習スキームを提供する。
論文 参考訳(メタデータ) (2023-06-27T18:54:40Z) - Emerging Trends in Federated Learning: From Model Fusion to Federated X Learning [65.06445195580622]
フェデレートラーニング(Federated Learning)は、データ収集とモデルトレーニングを、マルチパーティの計算とモデルアグリゲーションを通じて分離する新しいパラダイムである。
我々は、他の学習アルゴリズムとともに、フェデレーション学習の焦点を絞った調査を行う。
論文 参考訳(メタデータ) (2021-02-25T15:18:13Z) - Nonparametric Estimation of Heterogeneous Treatment Effects: From Theory
to Learning Algorithms [91.3755431537592]
プラグイン推定と擬似出力回帰に依存する4つの幅広いメタ学習戦略を解析する。
この理論的推論を用いて、アルゴリズム設計の原則を導出し、分析を実践に翻訳する方法について強調する。
論文 参考訳(メタデータ) (2021-01-26T17:11:40Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - Bayesian active learning for production, a systematic study and a
reusable library [85.32971950095742]
本稿では,現在のアクティブラーニング技術の主な欠点について分析する。
実世界のデータセットの最も一般的な課題が深層能動学習プロセスに与える影響について,系統的研究を行った。
部分的不確実性サンプリングやより大きいクエリサイズといった,アクティブな学習ループを高速化する2つの手法を導出する。
論文 参考訳(メタデータ) (2020-06-17T14:51:11Z) - Provable Meta-Learning of Linear Representations [114.656572506859]
我々は、複数の関連するタスクから共通の機能の集合を学習し、その知識を新しい未知のタスクに転送する、という2つの課題に対処する、高速でサンプル効率のアルゴリズムを提供する。
また、これらの線形特徴を学習する際のサンプルの複雑さに関する情報理論の下限も提供する。
論文 参考訳(メタデータ) (2020-02-26T18:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。