論文の概要: Making Better Use of Unlabelled Data in Bayesian Active Learning
- arxiv url: http://arxiv.org/abs/2404.17249v1
- Date: Fri, 26 Apr 2024 08:41:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 13:34:31.391042
- Title: Making Better Use of Unlabelled Data in Bayesian Active Learning
- Title(参考訳): ベイジアンアクティブラーニングにおける非競合データの利用性向上
- Authors: Freddie Bickford Smith, Adam Foster, Tom Rainforth,
- Abstract要約: 半教師付きベイズ能動学習のための枠組みを提案する。
従来のベイズ的アクティブラーニングやランダムに取得したデータを用いた半教師付きラーニングよりも優れた性能モデルが得られた。
- 参考スコア(独自算出の注目度): 19.050266270699368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fully supervised models are predominant in Bayesian active learning. We argue that their neglect of the information present in unlabelled data harms not just predictive performance but also decisions about what data to acquire. Our proposed solution is a simple framework for semi-supervised Bayesian active learning. We find it produces better-performing models than either conventional Bayesian active learning or semi-supervised learning with randomly acquired data. It is also easier to scale up than the conventional approach. As well as supporting a shift towards semi-supervised models, our findings highlight the importance of studying models and acquisition methods in conjunction.
- Abstract(参考訳): 完全な教師付きモデルはベイズ的活発な学習において支配的である。
問題のないデータに存在する情報を無視することは、予測性能だけでなく、取得すべきデータに関する決定にも害をもたらすと我々は主張する。
提案手法は半教師付きベイズ能動学習のための単純なフレームワークである。
従来のベイズ的アクティブラーニングやランダムに取得したデータを用いた半教師付きラーニングよりも優れた性能モデルが得られた。
従来の方法よりもスケールアップも容易です。
本研究は, 半教師付きモデルへの移行を支援するとともに, モデル研究と獲得手法の併用の重要性を強調した。
関連論文リスト
- Model Uncertainty based Active Learning on Tabular Data using Boosted
Trees [0.4667030429896303]
監視された機械学習は、モデルトレーニングのための良質なラベル付きデータの可用性に依存している。
アクティブな学習は機械学習のサブフィールドであり、ラベル付きデータを効率的に取得するのに役立つ。
論文 参考訳(メタデータ) (2023-10-30T14:29:53Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Active Learning with Combinatorial Coverage [0.0]
アクティブな学習は、ラベル付けするデータを選択するプロセスを自動化する機械学習の実践的な分野である。
現在の手法はデータラベリングの負担を軽減するのに有効であるが、モデルに強く依存する。
これにより、サンプルデータの新しいモデルへの転送が不可能になり、サンプリングバイアスの問題も発生した。
本稿では,これらの課題を克服するために,カバレッジを活用した能動的学習手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T13:43:23Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z) - Efficacy of Bayesian Neural Networks in Active Learning [11.609770399591516]
ベイズニューラルネットワークは、アンサンブルに基づく不確実性を捕捉する技術よりも効率的であることを示す。
また,近年,モンテカルロのドロップアウトよりも効果的であることが判明したアンサンブル技法の重要な欠点も明らかにした。
論文 参考訳(メタデータ) (2021-04-02T06:02:11Z) - Deep Bayesian Active Learning, A Brief Survey on Recent Advances [6.345523830122166]
アクティブラーニングは、ラベル付きデータの小さなサイズでモデルをトレーニングし始める。
ディープラーニングメソッドはモデルの不確実性を表現あるいは操作できない。
deep bayesian active learningフレームワークは、モデルにおける実践的な考察を提供する。
論文 参考訳(メタデータ) (2020-12-15T02:06:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。