論文の概要: Batch Active Learning from the Perspective of Sparse Approximation
- arxiv url: http://arxiv.org/abs/2211.00246v1
- Date: Tue, 1 Nov 2022 03:20:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 13:14:51.175110
- Title: Batch Active Learning from the Perspective of Sparse Approximation
- Title(参考訳): スパース近似の観点からのバッチアクティブ学習
- Authors: Maohao Shen, Bowen Jiang, Jacky Yibo Zhang, Oluwasanmi Koyejo
- Abstract要約: アクティブな学習は、機械学習エージェントと人間のアノテーションとのインタラクションを活用することで、効率的なモデルトレーニングを可能にする。
スパース近似の観点からバッチアクティブラーニングを定式化する新しいフレームワークを提案し,提案する。
我々のアクティブラーニング手法は、ラベルのないデータプールから、対応するトレーニング損失関数が、そのフルデータプールに近似するように、情報的サブセットを見つけることを目的としている。
- 参考スコア(独自算出の注目度): 12.51958241746014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning enables efficient model training by leveraging interactions
between machine learning agents and human annotators. We study and propose a
novel framework that formulates batch active learning from the sparse
approximation's perspective. Our active learning method aims to find an
informative subset from the unlabeled data pool such that the corresponding
training loss function approximates its full data pool counterpart. We realize
the framework as sparsity-constrained discontinuous optimization problems,
which explicitly balance uncertainty and representation for large-scale
applications and could be solved by greedy or proximal iterative hard
thresholding algorithms. The proposed method can adapt to various settings,
including both Bayesian and non-Bayesian neural networks. Numerical experiments
show that our work achieves competitive performance across different settings
with lower computational complexity.
- Abstract(参考訳): アクティブラーニングは、機械学習エージェントと人間のアノテーション間のインタラクションを活用することで、効率的なモデルトレーニングを可能にする。
スパース近似の観点からバッチアクティブラーニングを定式化する新しいフレームワークを提案し,提案する。
アクティブラーニング手法は,ラベルのないデータプールから,対応するトレーニング損失関数が全データプールに近似するように,有用な部分集合を見つけることを目的としている。
本手法は,大規模アプリケーションにおける不確実性と表現のバランスを明示的に保ち,欲望あるいは近位反復型ハードしきい値アルゴリズムによって解決できる不連続最適化問題である。
提案手法はベイジアンニューラルネットワークと非ベイジアンニューラルネットワークの両方を含む様々な設定に適応できる。
数値実験により,計算複雑性の低い異なる異なる環境における競争性能が得られた。
関連論文リスト
- Neural Active Learning Beyond Bandits [69.99592173038903]
ストリームベースとプールベースの両方のアクティブラーニングをニューラルネットワーク近似を用いて検討する。
ストリームベースおよびプールベースアクティブラーニングのためのニューラルネットワークを新たに設計したエクスプロイトと探索に基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-18T21:52:14Z) - Bandit-Driven Batch Selection for Robust Learning under Label Noise [20.202806541218944]
本稿では,SGD(Gradient Descent)トレーニングにおけるバッチ選択のための新しい手法を提案する。
本手法は,ラベルノイズの存在下での学習過程の最適化に重点を置いている。
論文 参考訳(メタデータ) (2023-10-31T19:19:01Z) - BatchGFN: Generative Flow Networks for Batch Active Learning [80.73649229919454]
BatchGFNは、生成フローネットワークを使用してバッチ報酬に比例したデータポイントのセットをサンプリングする、プールベースのアクティブラーニングのための新しいアプローチである。
提案手法は,おもちゃの回帰問題において,1点当たり1回の前方通過で推定時間に近距離最適効用バッチをサンプリングすることを可能にした。
論文 参考訳(メタデータ) (2023-06-26T20:41:36Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - On the Limit Performance of Floating Gossip [6.883143706086789]
Gossip Learningスキームは、インフラのない方法で機械学習モデルの位置ベースの確率論的進化を実装するために、Floating Contentに依存している。
継続的学習が必要な動的シナリオを考察し,Floating Gossipの限界性能を調査するための平均場アプローチを採用する。
我々のモデルは,機械学習モデルの継続的トレーニングと更新を協調的に実施する上で,Floating Gossipが非常に効果的であることを示している。
論文 参考訳(メタデータ) (2023-02-16T16:42:38Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - BALanCe: Deep Bayesian Active Learning via Equivalence Class Annealing [7.9107076476763885]
BALanCeは、不確実性推定の効果を緩和する、深いアクティブな学習フレームワークである。
Batch-BALanCeは、逐次アルゴリズムのバッチ設定への一般化である。
Batch-BALanCeは、アクティブな学習のためのいくつかのベンチマークデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-12-27T15:38:27Z) - Active Learning for Sequence Tagging with Deep Pre-trained Models and
Bayesian Uncertainty Estimates [52.164757178369804]
自然言語処理のためのトランスファーラーニングとアクティブラーニングの最近の進歩は、必要なアノテーション予算を大幅に削減する可能性を開く。
我々は,様々なベイズ不確実性推定手法とモンテカルロドロップアウトオプションの実験的研究を,アクティブ学習フレームワークで実施する。
また, 能動学習中にインスタンスを取得するためには, 完全サイズのトランスフォーマーを蒸留版に置き換えることにより, 計算性能が向上することを示した。
論文 参考訳(メタデータ) (2021-01-20T13:59:25Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - Active Learning for Gaussian Process Considering Uncertainties with
Application to Shape Control of Composite Fuselage [7.358477502214471]
ガウス過程に不確実性のある2つの新しい能動学習アルゴリズムを提案する。
提案手法は不確実性の影響を取り入れ,予測性能の向上を実現する。
本手法は, 複合胴体の自動形状制御における予測モデルの改善に応用されている。
論文 参考訳(メタデータ) (2020-04-23T02:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。