論文の概要: Speeding Up BatchBALD: A k-BALD Family of Approximations for Active
Learning
- arxiv url: http://arxiv.org/abs/2301.09490v1
- Date: Mon, 23 Jan 2023 15:38:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 13:16:28.385708
- Title: Speeding Up BatchBALD: A k-BALD Family of Approximations for Active
Learning
- Title(参考訳): BatchBALDの高速化: アクティブラーニングのための近似のk-BALDファミリー
- Authors: Andreas Kirsch
- Abstract要約: BatchBALDはラベル付きデータで機械学習モデルをトレーニングするテクニックである。
本稿では,k-wise mutual information terms を用いて BatchBALD を近似する新しい近似 k-BALD を提案する。
MNISTデータセットの結果から、k-BALDはBatchBALDよりも大幅に高速であり、同様の性能を維持していることがわかった。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning is a powerful method for training machine learning models
with limited labeled data. One commonly used technique for active learning is
BatchBALD, which uses Bayesian neural networks to find the most informative
points to label in a pool set. However, BatchBALD can be very slow to compute,
especially for larger datasets. In this paper, we propose a new approximation,
k-BALD, which uses k-wise mutual information terms to approximate BatchBALD,
making it much less expensive to compute. Results on the MNIST dataset show
that k-BALD is significantly faster than BatchBALD while maintaining similar
performance. Additionally, we also propose a dynamic approach for choosing k
based on the quality of the approximation, making it more efficient for larger
datasets.
- Abstract(参考訳): アクティブな学習は、ラベル付きデータで機械学習モデルをトレーニングするための強力な方法である。
アクティブラーニングの一般的なテクニックの1つは、ベイズニューラルネットワークを使用してプールセットにラベル付けする最も有益なポイントを見つけるバッチバルドである。
しかしながら、特に大きなデータセットでは、BatchBALDの計算は非常に遅い。
本稿では,k-wise相互情報項を用いてBatchBALDを近似し,計算コストを低減した新しい近似k-BALDを提案する。
MNISTデータセットの結果から、k-BALDはBatchBALDよりも大幅に高速であり、同様の性能を維持していることがわかった。
さらに、近似の質に基づいてkを選択するための動的アプローチを提案し、より大きなデータセットに対してより効率的にする。
関連論文リスト
- Fast Fishing: Approximating BAIT for Efficient and Scalable Deep Active Image Classification [1.8567173419246403]
Deep Active Learning (AL)は、ディープニューラルネットワークのトレーニングに要するアノテーションコストを最小限にすることを目指している。
Fisher Informationをベースにした最近提案されたAL戦略であるBAITは、さまざまなデータセットで素晴らしいパフォーマンスを示している。
本稿では,BAITの計算効率とスケーラビリティを向上する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-04-13T12:09:37Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Novel Batch Active Learning Approach and Its Application to Synthetic
Aperture Radar Datasets [7.381841249558068]
近年、合成開口レーダ(SAR)データarXiv:2204.00005のシーケンシャルな能動学習が実施されている。
そこで我々は,Dijkstraのコアセット生成用Annulus Core-Set(DAC)とバッチサンプリング用LocalMaxという,バッチアクティブラーニングのための新しい2部構成のアプローチを開発した。
DACとLocalMaxを組み合わせたバッチアクティブラーニングプロセスは、逐次アクティブラーニングとほぼ同じ精度で、バッチサイズに比例して効率的である。
論文 参考訳(メタデータ) (2023-07-19T23:25:21Z) - BatchGFN: Generative Flow Networks for Batch Active Learning [80.73649229919454]
BatchGFNは、生成フローネットワークを使用してバッチ報酬に比例したデータポイントのセットをサンプリングする、プールベースのアクティブラーニングのための新しいアプローチである。
提案手法は,おもちゃの回帰問題において,1点当たり1回の前方通過で推定時間に近距離最適効用バッチをサンプリングすることを可能にした。
論文 参考訳(メタデータ) (2023-06-26T20:41:36Z) - Scalable Batch Acquisition for Deep Bayesian Active Learning [70.68403899432198]
ディープラーニングでは、各ステップでマークアップする複数の例を選択することが重要です。
BatchBALDのような既存のソリューションでは、多くの例を選択する際に大きな制限がある。
本稿では,より計算効率のよいLarge BatchBALDアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-13T11:45:17Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Benchmarking Learning Efficiency in Deep Reservoir Computing [23.753943709362794]
我々は、機械学習モデルがトレーニングデータからいかに早く学習するかを測定するために、データ効率の指標とともに、ますます困難なタスクのベンチマークを導入する。
我々は、RNN、LSTM、Transformersなどの確立された逐次教師付きモデルの学習速度を、貯水池計算に基づく比較的知られていない代替モデルと比較する。
論文 参考訳(メタデータ) (2022-09-29T08:16:52Z) - Data Shapley Valuation for Efficient Batch Active Learning [21.76249748709411]
Active Data Shapley(ADS)は、バッチアクティブラーニングのためのフィルタリングレイヤーです。
ADSは、ラベルのないデータのプールが現実世界の異常を示す場合に特に効果的であることを示す。
論文 参考訳(メタデータ) (2021-04-16T18:53:42Z) - Continual Learning using a Bayesian Nonparametric Dictionary of Weight
Factors [75.58555462743585]
訓練されたニューラルネットワークは、シーケンシャルなタスク設定で破滅的な忘れを経験する傾向がある。
Indian Buffet Process (IBP) に基づく原則的非パラメトリック手法を提案する。
連続学習ベンチマークにおける本手法の有効性を実証し、トレーニングを通して重み要因の配分と再利用方法を分析する。
論文 参考訳(メタデータ) (2020-04-21T15:20:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。