論文の概要: Frugal Reinforcement-based Active Learning
- arxiv url: http://arxiv.org/abs/2212.04868v1
- Date: Fri, 9 Dec 2022 14:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:31:14.234632
- Title: Frugal Reinforcement-based Active Learning
- Title(参考訳): Frugal Reinforcement を用いたアクティブラーニング
- Authors: Sebastien Deschamps and Hichem Sahbi
- Abstract要約: 本稿では,ラベル効率向上のための新しい能動的学習手法を提案する。
提案手法は反復的であり,多様性,表現性,不確実性の基準を混合した制約対象関数の最小化を目的としている。
また、強化学習に基づく新たな重み付け機構を導入し、各トレーニングイテレーションでこれらの基準を適応的にバランスさせる。
- 参考スコア(独自算出の注目度): 12.18340575383456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the existing learning models, particularly deep neural networks, are
reliant on large datasets whose hand-labeling is expensive and time demanding.
A current trend is to make the learning of these models frugal and less
dependent on large collections of labeled data. Among the existing solutions,
deep active learning is currently witnessing a major interest and its purpose
is to train deep networks using as few labeled samples as possible. However,
the success of active learning is highly dependent on how critical are these
samples when training models. In this paper, we devise a novel active learning
approach for label-efficient training. The proposed method is iterative and
aims at minimizing a constrained objective function that mixes diversity,
representativity and uncertainty criteria. The proposed approach is
probabilistic and unifies all these criteria in a single objective function
whose solution models the probability of relevance of samples (i.e., how
critical) when learning a decision function. We also introduce a novel
weighting mechanism based on reinforcement learning, which adaptively balances
these criteria at each training iteration, using a particular stateless
Q-learning model. Extensive experiments conducted on staple image
classification data, including Object-DOTA, show the effectiveness of our
proposed model w.r.t. several baselines including random, uncertainty and flat
as well as other work.
- Abstract(参考訳): 既存の学習モデル、特にディープニューラルネットワークのほとんどは、手ラベルが高価で時間を要する大きなデータセットに依存しています。
現在のトレンドは、これらのモデルの学習を粗末にし、ラベル付きデータの大規模な収集に依存しないようにすることだ。
既存のソリューションの中で、deep active learningは現在大きな関心を集めており、可能な限り少数のラベル付きサンプルを使用してディープネットワークをトレーニングすることを目的としている。
しかし、アクティブラーニングの成功は、トレーニングモデルにおけるこれらのサンプルの重要性に大きく依存している。
本稿では,ラベル効率向上のための新しい能動的学習手法を考案する。
提案手法は,多様性,表現性,不確かさを混合した制約対象関数を最小化する。
提案手法は確率的であり、決定関数を学習する際のサンプルの関連性の確率(すなわち、いかに重要か)を解がモデル化する単一目的関数にこれらの基準を統一する。
また,強化学習に基づく新しい重み付け機構を導入し,特定のステートレスなq-learningモデルを用いて,各トレーニングイテレーションでこれらの基準を適応的にバランスさせる。
Object-DOTAを含む静止画像分類データを用いて行った大規模な実験は、ランダム、不確実性、平坦性を含むいくつかのベースラインと他の作業の有効性を示した。
関連論文リスト
- Forgetting, Ignorance or Myopia: Revisiting Key Challenges in Online Continual Learning [29.65600202138321]
高速なデータストリーム環境では、遅いモデルに対応するためにデータが停止しない。
モデルの無知: OCLのシングルパスの性質は、制約付きトレーニング時間内で効果的な機能を学ぶためにモデルに挑戦する。
モデルのミオピア:OCLの局所的な学習特性は、過度に単純化されたタスク固有の機能を採用するモデルに導かれる。
論文 参考訳(メタデータ) (2024-09-28T05:24:56Z) - Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - Model Uncertainty based Active Learning on Tabular Data using Boosted
Trees [0.4667030429896303]
監視された機械学習は、モデルトレーニングのための良質なラベル付きデータの可用性に依存している。
アクティブな学習は機械学習のサブフィールドであり、ラベル付きデータを効率的に取得するのに役立つ。
論文 参考訳(メタデータ) (2023-10-30T14:29:53Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Practical Active Learning with Model Selection for Small Data [13.128648437690224]
モデル選択を用いた実践的能動的学習のための簡易かつ高速な手法を開発した。
本手法は,ラジアル基底関数カーネルを用いたサポートベクトル分類を用いて,二元分類のためのプールベースアクティブラーナに基づく。
論文 参考訳(メタデータ) (2021-12-21T23:11:27Z) - Online Coreset Selection for Rehearsal-based Continual Learning [65.85595842458882]
継続的な学習では、後に再生されるトレーニング例(コアセット)のサブセットを格納し、破滅的な忘れを軽減します。
提案するオンラインコアセット選択(OCS, Online Coreset Selection)は, 各イテレーションにおいて最も代表的で情報性の高いコアセットを選択するシンプルで効果的な方法である。
提案手法は,過去のタスクに対して高親和性サンプルを選択しながら,目標データセットへのモデル適応を最大化し,破滅的忘れを直接的に抑制する。
論文 参考訳(メタデータ) (2021-06-02T11:39:25Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Efficacy of Bayesian Neural Networks in Active Learning [11.609770399591516]
ベイズニューラルネットワークは、アンサンブルに基づく不確実性を捕捉する技術よりも効率的であることを示す。
また,近年,モンテカルロのドロップアウトよりも効果的であることが判明したアンサンブル技法の重要な欠点も明らかにした。
論文 参考訳(メタデータ) (2021-04-02T06:02:11Z) - Diverse Complexity Measures for Dataset Curation in Self-driving [80.55417232642124]
トラフィックシーンの面白さを定量化する多様な基準を活用した新たなデータ選択手法を提案する。
実験の結果,提案するキュレーションパイプラインは,より汎用的で高いパフォーマンスをもたらすデータセットを選択できることが判明した。
論文 参考訳(メタデータ) (2021-01-16T23:45:02Z) - Active Learning in CNNs via Expected Improvement Maximization [2.0305676256390934]
また,Dropout-based IMprOvementS (DEIMOS) は,能動的学習に対する柔軟で計算効率のよいアプローチである。
以上の結果から,DIMOSは複数の回帰・分類タスクにおいて,既存のベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-11-27T22:06:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。