論文の概要: Bounded Memory Active Learning through Enriched Queries
- arxiv url: http://arxiv.org/abs/2102.05047v1
- Date: Tue, 9 Feb 2021 19:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 16:02:16.434767
- Title: Bounded Memory Active Learning through Enriched Queries
- Title(参考訳): エンリッチなクエリによる境界メモリアクティブ学習
- Authors: Max Hopkins, Daniel Kane, Shachar Lovett, Michal Moshkovitz
- Abstract要約: アクティブ・ラーニング(英: Active Learning)とは、データ・ハングリー学習アルゴリズムが高価なラベリングコストを下げるために情報的サンプルを適応的に選択するパラダイムである。
これに対抗するために、近年の一連の研究は、学習者がラベル以外の豊富なクエリを問うことができるモデルとして検討されている。
このようなモデルはラベルのコストを大幅に下げることに成功したが、大量のメモリを必要とする傾向にある。
- 参考スコア(独自算出の注目度): 28.116967200489192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The explosive growth of easily-accessible unlabeled data has lead to growing
interest in active learning, a paradigm in which data-hungry learning
algorithms adaptively select informative examples in order to lower
prohibitively expensive labeling costs. Unfortunately, in standard worst-case
models of learning, the active setting often provides no improvement over
non-adaptive algorithms. To combat this, a series of recent works have
considered a model in which the learner may ask enriched queries beyond labels.
While such models have seen success in drastically lowering label costs, they
tend to come at the expense of requiring large amounts of memory. In this work,
we study what families of classifiers can be learned in bounded memory. To this
end, we introduce a novel streaming-variant of enriched-query active learning
along with a natural combinatorial parameter called lossless sample compression
that is sufficient for learning not only with bounded memory, but in a
query-optimal and computationally efficient manner as well. Finally, we give
three fundamental examples of classifier families with small, easy to compute
lossless compression schemes when given access to basic enriched queries:
axis-aligned rectangles, decision trees, and halfspaces in two dimensions.
- Abstract(参考訳): アクセシブルなラベル付きデータの爆発的な増加は、データハングリー学習アルゴリズムが、違法に高価なラベル付けコストを下げるために、情報的サンプルを適応的に選択するパラダイムであるアクティブラーニングへの関心の高まりにつながっている。
残念なことに、標準的な最悪の学習モデルでは、アクティブ設定はしばしば非適応アルゴリズムよりも改善されない。
これに対処するために、最近の一連の研究は、学習者がラベル以外の豊富なクエリを要求することができるモデルを検討した。
このようなモデルはラベルのコストを大幅に下げることに成功したが、大量のメモリを必要とする傾向にある。
本研究では,境界メモリで学習できる分類因子のファミリーについて検討する。
そこで本稿では,拡張クエリ型アクティブラーニングのストリーミング型を,境界メモリだけでなく,クエリ最適化と計算効率のよい方法で学習するのに十分なロスレス・サンプル圧縮という自然な組み合わせパラメータとともに導入する。
最後に,基本エンリッチなクエリへのアクセスが与えられた場合,最小でロスレス圧縮スキームの計算が容易な分類器ファミリの3つの基本的な例を示す:軸に配列された矩形,決定木,および2次元のハーフスペース。
関連論文リスト
- Cascaded Scaling Classifier: class incremental learning with probability
scaling [4.816581623191151]
本稿では, Margin Dampening と Cascaded Scaling という新たな漸進正規化手法を提案する。
1つ目は、ソフト制約と知識蒸留のアプローチを組み合わせて、過去の知識を保存し、新しいパターンを忘れることを可能にします。
提案手法は,複数のベンチマークにおいて,確立されたベースラインで良好に動作することを示す。
論文 参考訳(メタデータ) (2024-02-02T09:33:07Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Model Uncertainty based Active Learning on Tabular Data using Boosted
Trees [0.4667030429896303]
監視された機械学習は、モデルトレーニングのための良質なラベル付きデータの可用性に依存している。
アクティブな学習は機械学習のサブフィールドであり、ラベル付きデータを効率的に取得するのに役立つ。
論文 参考訳(メタデータ) (2023-10-30T14:29:53Z) - Ticketed Learning-Unlearning Schemes [57.89421552780526]
そこで我々は,学習のためのチケット付きモデルを提案する。
広義のコンセプトクラスに対して,空間効率のよいチケット付き学習スキームを提供する。
論文 参考訳(メタデータ) (2023-06-27T18:54:40Z) - Semiparametric Language Models Are Scalable Continual Learners [83.74414880208334]
セミパラメトリック言語モデル(LM)は、新しいテキストデータから継続的に学習する上で有望であることを示す。
Selective Memorization(SeMem)と呼ばれるシンプルで直感的なアプローチを提案する。
SeMemは、モデルが苦労する可能性のある難しいサンプルのみを記憶している。
論文 参考訳(メタデータ) (2023-03-02T17:15:02Z) - An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning [58.59343434538218]
間接学習の観点から、ラベルなしデータの正負の擬似ラベルを正確に予測するための、単純だが非常に効果的な手法を提案する。
私たちのアプローチは、オフザシェルフ操作のみを使用することで、ほんの数行のコードで実装できます。
論文 参考訳(メタデータ) (2022-09-28T02:11:34Z) - Efficient Active Learning with Abstention [12.315392649501101]
計算効率のよい能動学習アルゴリズムを開発した。
このアルゴリズムの重要な特徴は、アクティブな学習でしばしば見られる望ましくない「ノイズ探索」行動を避けることである。
論文 参考訳(メタデータ) (2022-03-31T18:34:57Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Learning from Noisy Labels for Entity-Centric Information Extraction [17.50856935207308]
エンティティ中心の情報抽出のための単純な共正規化フレームワークを提案する。
これらのモデルはタスク固有の損失と共同最適化され、同様の予測を生成するために正規化される。
結局のところ、トレーニングされたモデルのいずれかを推論に利用できます。
論文 参考訳(メタデータ) (2021-04-17T22:49:12Z) - Fase-AL -- Adaptation of Fast Adaptive Stacking of Ensembles for
Supporting Active Learning [0.0]
本研究は,Active Learning を用いて非ラベルのインスタンスで分類モデルを誘導する FASE-AL アルゴリズムを提案する。
このアルゴリズムは、正しく分類されたインスタンスの割合で有望な結果を得る。
論文 参考訳(メタデータ) (2020-01-30T17:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。